Soit \( \Omega \) un ensemble fini non vide.
Déterminer la loi d’une variable aléatoire \( X \) sur \( (\Omega, \mathcal{P}(\Omega), \mathbb{P}) \), c’est déterminer l’ensemble \( X(\Omega) \) et, pour tout réel \( x \) appartenant à \( X(\Omega) \), la probabilité \( \mathbb{P}(X=x) \).
Si \( X \) est une variable aléatoire discrète, la famille \( ([X=x])_{x \in X(\Omega)} \) est un système complet d’événement, appelé système complet d’événements associé à \( X \).
Si \( X \) est une variable aléatoire telle que \( X(\Omega)=\left\{x_1, \ldots, x_n\right\} \) (où \( n \) est un entier naturel non nul), on appelle espérance de \( \boldsymbol{X} \) le réel noté \( \mathbb{E}(X) \) défini par : \[ \mathbb{E}(X)=\sum_{i=1}^n x_i \mathbb{P}(X=x_i)=\sum_{x_i \in X(\Omega)} x_i \mathbb{P}\left(X=x_i\right) \]
Si \( X \) est une variable aléatoire finie alors :
Soit \( \varphi \) une application de \( X(\Omega) \) dans \( \mathbb{R} . \varphi(X) \) admet une espérance et : \[ \mathbb{E}(\varphi(X))=\sum_{x \in X(\Omega)} \varphi(x) \mathbb{P}(X=x) \]
Soit \( X \) une variable aléatoire finie. On appelle variance de \( X \) le réel noté \( \mathbb{V}(X) \) défini par : \[ \mathbb{V}(X)=\mathbb{E}\left((X-\mathbb{E}(X))^2\right)=\sum_{x \in X(\Omega)}(x-\mathbb{E}(X))^2 \mathbb{P}(X=x) \]
Si \( X \) est une variable aléatoire finie, on appelle écart-type de \( X \) le réel \[ \sigma(X)=\sqrt{\mathbb{V}(X)} \]
Si \( X \) est une variable aléatoire finie, alors, pour tout couple \( (a, b) \) de réels : \[ \sigma(a X+b)=|a| \sigma(X) \]
Une variable aléatoire \( X \) est-dite constante (ou certaine) s’il existe un réel \( a \) tel que : \( X(\Omega)=\{a\} \).
Si \( a \in \mathbb{R} \) et si \( X \) est une variable aléatoire certaine égale à \( a \), alors : \[ \mathbb{E}(X)=a \quad \text { et } \quad \mathbb{V}(X)=0 \]
Si \( p \) est un élément de \( ] 0,1[ \), on dit qu’une variable aléatoire \( X \) suit la loi de Bernoulli de paramètre \( p \) si \( X \) prend ses valeurs dans \( \{0,1\} \) et si : \[ \mathbb{P}(X=1)=p \quad \text { et } \quad \mathbb{P}(X=0)=1-p \]
Si \( p \in \left] 0,1 \right[ \) et si \( X \) est une variable aléatoire suivant la loi de Bernoulli de paramètre \( p \), alors : \[ \mathbb{E}(X)=p \quad \text { et } \quad \mathbb{V}(X)=p(1-p) \]
On dit que \( X \) suit la loi binomiale de paramètres \( n \) et \( p \) si \( X \) prend ses valeurs dans \( \left[\kern-0.15em\left[ { 0,n} \right]\kern-0.15em\right] \) et si : \[ \forall k \in\left[\kern-0.15em\left[ {0,n} \right]\kern-0.15em\right], \ \mathbb{P}(X=k)=\binom{n}{k} p^k(1-p)^{n-k} \]
Si \( X \) est une variable aléatoire suivant la loi uniforme sur \( \left[\kern-0.15em\left[ {1,n} \right]\kern-0.15em\right] \), alors \( X \) admet une espérance et une variance et : \[ \mathbb{E}(X)=\frac{n+1}{2} \quad \text { et } \quad \mathbb{V}(X)=\frac{n^2-1}{12} \]