¿Cuál es una explicación intuitiva del teorema de Cochran?

El teorema de Cochran (en realidad, esta es una versión más simple que el teorema original de Cochran, que es un poco más general) se establece de la siguiente manera:

Sea [math] x [/ math] un [math] n \ times 1 [/ math] vector aleatorio cuya distribución es [math] N (\ mu, \ mathbf {I}) [/ math]. Deje que [math] \ mathbf {A} _1, \ ldots, \ mathbf {A} _k [/ math] sean matrices simétricas de constantes y defina [math] \ mathbf {A} = \ mathbf {A} _1 + \ cdots + \ mathbf {A} _k [/ math]. Si [math] \ mathbf {A} [/ math] es idempotente y [math] \ text {rank} (\ mathbf {A}) = \ sum_ {i = 1} ^ k \ text {rank} (\ mathbf { A} _i) [/ math], luego [math] \ mathbf {x} ^ \ intercal \ mathbf {A} _i \ mathbf {x} [/ math] se distribuyen independientemente como no central [math] \ chi ^ 2 \ left (\ text {rank} (\ mathbf {A} _i), \ tfrac {1} {2} \ mu ^ \ intercal \ mathbf {A} _i \ mu \ right) [/ math].

Entonces, ¿qué significa esto? ¿Por qué es útil? Bueno, en Estadística, a menudo nos interesa saber cuál es la distribución de algo o cuál es la distribución de una función de algo. Aquí se nos da una variable aleatoria [math] \ mathbf {x} [/ math] y el teorema de Cochran nos da un resultado maravilloso sobre las formas cuadráticas de esa variable aleatoria.

Esto es útil cuando se hace ANOVA. En ANOVA nuestra variable aleatoria es [math] \ mathbf {y} [/ math] con matriz de diseño [math] \ mathbf {X} [/ math]. descomponemos las sumas de los cuadrados de error, [math] \ mathbf {y} ^ \ intercal \ left (\ mathbf {I} – \ mathbf {X} (\ mathbf {X} ^ \ intercal \ mathbf {X}) ^ – \ mathbf {X} ^ \ intercal \ right) \ mathbf {y} [/ math], en sumas de cuadrados que corresponden a cada una de las covariables en nuestro modelo.

Resulta que estas sumas de cuadrados tienen la forma [math] \ mathbf {y} ^ \ intercal \ mathbf {A} _i \ mathbf {y} [/ math], así que si podemos demostrar que las condiciones del teorema de Cochran se mantienen , entonces obtenemos distribuciones para estas sumas de cuadrados y así podemos hacer inferencia (¡calcular valores p, intervalos de confianza, etc.)!