Théorème de Cochran

En mathématiques, plus précisément en théorie des probabilités, le théorème de Cochran concerne la projection d'un vecteur aléatoire gaussien sur des sous-espaces vectoriels orthogonaux de dimensions finies[1]. Il établit la loi et l'indépendance de ces projections et de leurs normes euclidiennes. Ce théorème est utilisé en statistique pour justifier la convergence en loi de tests statistiques et est l'argument clé pour des résultats de base du modèle linéaire.

Énoncé du théorème

La version générale de ce théorème est la suivante :

Théorème de Cochran — Soient X un vecteur aléatoire gaussien de R n {\displaystyle \mathbb {R} ^{n}} de loi N ( μ , σ 2 I d n ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2}\mathrm {Id} _{n})} (où μ R n {\displaystyle \mu \in \mathbb {R} ^{n}} , σ > 0 et Idn est la matrice identité de taille n), ainsi que F1, ..., Fm des sous-espaces vectoriels de R n {\displaystyle \mathbb {R} ^{n}} , orthogonaux deux à deux et de somme R n {\displaystyle \mathbb {R} ^{n}} .

Alors, si l'on note pour 1 ≤ im, PFi la matrice de la projection orthogonale sur Fi et di la dimension de Fi :

  • les vecteurs aléatoires PF1X, ...,PFmX sont deux à deux indépendants et de lois respectives N ( P F 1 μ , σ 2 P F 1 ) , , N ( P F m μ , σ 2 P F m ) {\displaystyle {\mathcal {N}}(P_{F_{1}}\mu ,\sigma ^{2}P_{F_{1}}),\ldots ,{\mathcal {N}}(P_{F_{m}}\mu ,\sigma ^{2}P_{F_{m}})}  ;
  • les variables aléatoires réelles P F 1 ( X μ ) 2 σ 2 , , P F m ( X μ ) 2 σ 2 {\displaystyle {\frac {\|P_{F_{1}}(X-\mu )\|^{2}}{\sigma ^{2}}},\ldots ,{\frac {\|P_{F_{m}}(X-\mu )\|^{2}}{\sigma ^{2}}}} sont deux-à-deux indépendantes et sont de lois respectives χ2(d1), ...,χ2(dm).

Une version simplifiée mais équivalente est l'énoncé suivant :

Théorème de Cochran (simplifié) — Soit X un vecteur aléatoire gaussien de R n {\displaystyle \mathbb {R} ^{n}} de loi N ( 0 R n , I d n ) {\displaystyle {\mathcal {N}}(0_{\mathbb {R} ^{n}},\mathrm {Id} _{n})} et F un sous-espace vectoriel de R n {\displaystyle \mathbb {R} ^{n}} de dimension d, F son orthogonal et PF,PF les matrices des projections orthogonales sur F, F. Alors :

  • les vecteurs aléatoires PFX,PFX sont indépendants et de lois respectives N ( 0 R n , P F ) , N ( 0 R n , P F ) {\displaystyle {\mathcal {N}}(0_{\mathbb {R} ^{n}},P_{F}),{\mathcal {N}}(0_{\mathbb {R} ^{n}},P_{F^{\perp }})}  ;
  • les variables aléatoires réelles |PFX|2,|PFX|2 sont indépendantes et de lois respectives χ2(d),χ2(n – d).

Démonstration

On peut passer de la version simplifiée à la version générale du théorème en appliquant une récurrence sur le nombre de sous-espaces vectoriels (qui interviennent dans l'énoncé) et en effectuant le changement de variable X = X μ σ N ( 0 R n , I d n ) {\displaystyle X'={\frac {X-\mu }{\sigma }}\sim {\mathcal {N}}(0_{\mathbb {R} ^{n}},\mathrm {Id} _{n})} . Il suffit donc de démontrer la version simplifiée.


On note Y = ( P F X P F X ) = A X {\displaystyle Y=\left({\begin{matrix}P_{F}X\\P_{F^{\perp }}X\end{matrix}}\right)=AX} avec A = ( P F P F ) M 2 n , n ( R ) {\displaystyle A=\left({\begin{matrix}P_{F}\\P_{F^{\perp }}\end{matrix}}\right)\in {\mathcal {M}}_{2n,n}(\mathbb {R} )} . Alors Y N ( 0 R 2 n , A A t ) {\displaystyle Y\sim {\mathcal {N}}(0_{\mathbb {R} ^{2n}},AA^{t})} et par conséquent, PFX et PFX sont des vecteurs gaussiens. On a A A t = ( P F 0 0 P F ) {\displaystyle AA^{t}=\left({\begin{matrix}P_{F}&0\\0&P_{F^{\perp }}\end{matrix}}\right)} . En effet :

  • P F P F = P F {\displaystyle P_{F}\circ P_{F}=P_{F}} car P F {\displaystyle P_{F}} est une projection
  • P F P F = P F {\displaystyle P_{F^{\perp }}\circ P_{F^{\perp }}=P_{F^{\perp }}} car P F {\displaystyle P_{F^{\perp }}} est une projection
  • P F P F = P F P F = 0 {\displaystyle P_{F}\circ P_{F^{\perp }}=P_{F^{\perp }}\circ P_{F}=0} car F {\displaystyle F} et F {\displaystyle F^{\perp }} sont orthogonaux.

Ainsi, comme A A t {\displaystyle AA^{t}} est diagonale par blocs, les vecteurs aléatoires PFX et PFX sont indépendants et ont pour lois respectives N ( 0 R n , P F ) {\displaystyle {\mathcal {N}}(0_{\mathbb {R} ^{n}},P_{F})} et N ( 0 R n , P F ) {\displaystyle {\mathcal {N}}(0_{\mathbb {R} ^{n}},P_{F^{\perp }})} .


Pour la norme de la projection, il suffit de prendre (u1,...,ud) une base orthonormée de F et (ud + 1,...,un) une base orthonormée de F. Alors

| | P F X | | 2 = i = 1 d X , u i 2  et  | | P F X | | 2 = i = d + 1 n X , u i 2 . {\displaystyle ||P_{F}X||^{2}=\sum _{i=1}^{d}\langle X,u_{i}\rangle ^{2}\qquad {\text{ et }}\qquad ||P_{F^{\perp }}X||^{2}=\sum _{i=d+1}^{n}\langle X,u_{i}\rangle ^{2}.}

On écrit ( X , u i ) 1 i n = U t X {\displaystyle (\langle X,u_{i}\rangle )_{1\leq i\leq n}=U^{t}X} avec U la matrice de passage de la base canonique à la base (u1,...,un). Ainsi U t X N ( 0 R n , U I d n U t ) = N ( 0 R n , I d n ) {\displaystyle U^{t}X\sim {\mathcal {N}}(0_{\mathbb {R} ^{n}},U\mathrm {Id} _{n}U^{t})={\mathcal {N}}(0_{\mathbb {R} ^{n}},\mathrm {Id} _{n})} car U est orthogonale. Donc les variables aléatoires X , u i {\displaystyle \langle X,u_{i}\rangle } sont normales centrées et puisque la matrice de covariance I d n {\displaystyle \mathrm {Id} _{n}} est diagonale elles sont indépendantes. Par définition de la loi du χ2,

| | P F X | | 2 χ 2 ( d )  et  | | P F X | | 2 χ 2 ( n d ) {\displaystyle ||P_{F}X||^{2}\sim \chi ^{2}(d)\qquad {\text{ et }}\qquad ||P_{F^{\perp }}X||^{2}\sim \chi ^{2}(n-d)} .

Applications

Estimateur non biaisé de la variance

On se donne un échantillon X = (X1,...,Xn)T de loi normale N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} . On note la moyenne empirique X ¯ n = 1 n ( X 1 + . . . + X n ) = 1 n i = 1 n X i {\displaystyle {\overline {X}}_{n}={\frac {1}{n}}(X_{1}+...+X_{n})={\frac {1}{n}}\sum _{i=1}^{n}X_{i}} et la variance empirique non biaisée S ~ n 2 = 1 n 1 ( ( X 1 X ¯ n ) 2 + . . . + ( X n X ¯ n ) 2 ) = 1 n 1 i = 1 n ( X i X ¯ n ) 2 . {\displaystyle {\widetilde {S}}_{n}^{2}={\frac {1}{n-1}}\left((X_{1}-{\overline {X}}_{n})^{2}+...+(X_{n}-{\overline {X}}_{n})^{2}\right)={\frac {1}{n-1}}\sum _{i=1}^{n}(X_{i}-{\overline {X}}_{n})^{2}.} Alors

( n 1 ) σ 2 S ~ n 2 = 1 σ 2 ( ( X 1 X ¯ n ) 2 + . . . + ( X n X ¯ n ) 2 ) χ 2 ( n 1 ) . {\displaystyle {\frac {(n-1)}{\sigma ^{2}}}{\widetilde {S}}_{n}^{2}={\frac {1}{\sigma ^{2}}}\left((X_{1}-{\overline {X}}_{n})^{2}+...+(X_{n}-{\overline {X}}_{n})^{2}\right)\sim \chi ^{2}(n-1).}

Remarque : on a perdu un degré pour la loi du khi deux.

Démonstration

On applique le théorème de Cochran avec le sous-espace vectoriel F = Vect(1n) (où 1n est le vecteur colonne de R n {\displaystyle \mathbb {R} ^{n}} constitué uniquement de 1) au vecteur aléatoire Y = 1/σ(X1μ, ..., Xnμ)t = 1/σ(Xμ1n) de loi N ( 0 R n , I d n ) {\displaystyle {\mathcal {N}}(0_{\mathbb {R} ^{n}},\mathrm {Id} _{n})} .

  • La matrice de projection sur F est PF = 1n (1t
    n
    1n)−1 1t
    n
    = 1/n 1n 1t
    n
    et celle sur F est par conséquent PF = IdnPF.
  • La projection de Y sur F est

PFY = 1/σ(PFXμ PF1n) = 1/σ(Xnμ, ..., Xnμ)t.

  • La projection de Y sur F {\displaystyle F^{\bot }} est P F Y = Y P F Y = 1 σ ( X 1 X ¯ n , , X n X ¯ n ) t {\displaystyle P_{F^{\perp }}Y=Y-P_{F}Y={\frac {1}{\sigma }}(X_{1}-{\overline {X}}_{n},\dots ,X_{n}-{\overline {X}}_{n})^{t}} .

D'après le théorème de Cochran, | | P F Y | | 2 = ( n 1 ) σ 2 S ~ n 2 χ 2 ( n 1 ) {\displaystyle ||P_{F^{\perp }}Y||^{2}={\frac {(n-1)}{\sigma ^{2}}}{\widetilde {S}}_{n}^{2}\sim \chi ^{2}(n-1)} .

Test du khi deux

Article détaillé : Test du χ².

Le théorème de Cochran permet d'établir la convergence en loi de certains tests statistiques. C'est le cas du test d'adéquation ou le test d'indépendance. Il est aussi utilisé dans le cadre du modèle linéaire pour obtenir l'indépendance de β ^ {\displaystyle {\widehat {\beta }}} et de σ ^ 2 {\displaystyle {\widehat {\sigma }}^{2}} et le fait que n p σ 2 σ ^ 2 {\displaystyle {\frac {n-p}{{\sigma }^{2}}}{\widehat {\sigma }}^{2}} est de loi χ2(n – p)p – 1 est le nombre de variables.

Notes et références

  1. « Théorème de Cochran et applications en statistiques » [PDF], sur perso.univ-rennes1 (consulté le )

Voir aussi

Articles connexes

Lien externe

  • Le théorème et ses applications
  • icône décorative Portail des mathématiques
  • icône décorative Portail des probabilités et de la statistique