Processing math: 100%

Estimation (Appro)

Dans tout ce chapitre, X est une variable aléatoire sur un espace probabilisable (Ω,A). On suppose que la loi de X n’est pas entièrement déterminée et appartient à une famille de lois dépendant d’un paramètre θ décrivant un sous-ensemble Θ de R (ou éventuellement de R2). (Ω,A) est muni d’une famille de probabilités (Pθ)θΘ.

Lorsqu’elles existent, l’espérance et la variance de X pour la probabilité Pθ devraient être notées Eθ(X) et Vθ(X), mais, pour simplifier les notations, la probabilité sera plus simplement notée P, l’espérance et la variance seront notées E(X) et V(X), mais on se souviendra qu’elles dépendent de la probabilité Pθ.

Échantillon : définition

On appelle n-échantillon de la loi μθ de X (ou plus simplement de X ) toute famille (Xi)1in de variables aléatoires définies sur (Ω,A,P) et de même loi que X.

On dit que (Xi)1in est un n-échantillon indépendant et identiquement distribué (en abrégé i.i.d.) de X lorsque (Xi)1in est un n-échantillon de X constitué de variables aléatoires mutuellement indépendantes.

Si (Xi)1in est un n-échantillon de X, un échantillon observé est un n-uplet (xi)1in=(Xi(ω))1in de valeurs prises par X1,,Xn.

Estimateur : définition
  • On appelle estimateur de g(θ) toute variable aléatoire réelle de la forme φ(X1,,Xn)(Xi)1in est un n-échantillon i.i.d. de X et φ est une fonction de Rn dans R, au moins définie sur X1(Ω)××Xn(Ω), éventuellement dépendante de n, mais indépendante de θ.
  • Si φ(X1,,Xn) est un estimateur de g(θ), la réalisation de φ(X1(ω),,Xn(ω)) (où ω est le relevé effectué dans la population) est appelée estimation de g(θ).
  • On appelle suite d’estimateurs de g(θ) toute suite (Tn)nN de variables aléatoires réelles telle que, pour tout nN, Tn soit un estimateur de g(θ).

Estimateur sans biais, asymptotiquement sans biais : définitions

Soit (Tn)nN une suite d’estimateurs de g(θ) admettant tous espérance.

  • On appelle biais de Tn le réel bθ(Tn)=E(Tn)g(θ)
  • On dit que Tn est un estimateur sans biais de g(θ) si : E(Tn)=g(θ)
  • On dit que (Tn)nN est une suite d’estimateurs asymptotiquement sans biais de g(θ) si : limn+E(Tn)=g(θ)

Estimateur convergent : définition

Si (Tn)nN est une suite d’estimateurs de g(θ), on dit que (Tn)nN est une suite convergente d’estimateurs de g(θ) si : TnPg(θ)

autrement dit si : εR+, limn+P(|Tng(θ)|ε)=0

Par abus de langage, on dira aussi que Tn est un estimateur convergent de g(θ).

Donner une condition suffisante pour qu’un estimateur soit convergent

Soit (Tn)nN une suite d’estimateurs de g(θ) admettant tous une espérance et une variance. Si cette suite est telle que : limn+E(Tn)=g(θ) et limn+V(Tn)=0 alors la suite (Tn)nN est convergente.

Intervalle de confiance : définition

Soit (Un)nN et (Vn)nN deux suites d’estimateurs de g(θ) telles que : nN, P(UnVn)=1 Soit α[0,1]. [Un,Vn] est appelé intervalle de confiance de g(θ) au niveau de confiance 1α (ou au risque α) si : P(Ung(θ)Vn)1α

Sa réalisation est l’estimation de cet intervalle de confiance.

Intervalle de confiance asymptotique : définition

Soit (Un)nN et (Vn)nN deux suites d’estimateurs de g(θ) telles que : nN, P(UnVn)=1 Soit α[0,1]. On dit que ([Un,Vn])nN est intervalle de confiance asymptotique de g(θ) au niveau de confiance 1α (ou au risque α) s’il existe une suite (αn)nN telle que : nN, P(Ung(θ)Vn)1αn et limn+αn=α Par abus de langage, on dira aussi que [Un,Vn] est un intervalle de confiance asymptotique de g(θ).

error: Ce contenu est protégé !