Como ejemplo contrario, piense en un modelo de regresión lineal simple con un predictor ( x ) y una variable omitida ( z ).
[matemáticas]
\ begin {alineado}
y_i = \ alpha + \ beta x_i + \ delta z_i + \ varepsilon_i
\ end {alineado}
[/matemáticas]
Sabemos que el sesgo en este caso tiene la forma:
[matemáticas]
\ begin {alineado}
E [\ widehat {\ beta}] = \ beta + \ delta \ frac {Cov (x, z)} {Var (x)}
\ end {alineado}
[/matemáticas]
- ¿Es suficiente la placa de 18 mm de espesor de Tesla debajo de la batería para proteger el automóvil?
- Si alguien tiene miopía o hipermetropía, incluso si el objeto en el que se está enfocando está borroso, ¿alguna otra parte del campo está "enfocada"?
- ¿Dónde puedo recoger los hongos Morel en el área de Puget Sound?
- En 1998, durante un partido de fútbol, un rayo golpeó el campo y mató a los 11 miembros de un equipo. ¿Por qué el otro equipo quedó ileso?
- ¿Por qué la nave espacial no se quema al entrar del espacio a la superficie terrestre, mientras que los meteoritos se queman en la mesosfera?
En la fórmula puede ver que si [matemáticas] \ beta = – \ delta \ frac {Cov (x, z)} {Var (x)} [/ matemáticas], entonces el valor esperado de su estimador y la correlación entre y yx es cero.
La historia aquí es que lo que observa está “inversamente relacionado” de una manera muy específica con la otra variable relevante que no observa. Por lo tanto, la correlación calculada será nula, aunque podría tener un vínculo causal entre x e y.