Muchos valores p justo por debajo de 0.05. Nada más, nada muy por debajo.
Eso sugiere que jugaron con los análisis (o recopilaron más datos) hasta que fueron estadísticamente significativos.
Digamos que tiene una prueba t con dos grupos, cada grupo tiene N = 100 y el tamaño del efecto de la población es 0.279. Si su muestra representa exactamente su población, obtendrá un valor p de 0.05.
- ¿Qué debo hacer con los 15 minutos que el Instituto de CA da antes de cada trabajo en CA Final?
- ¿Cuáles son las razones del rechazo de un artículo de revista científica?
- Estoy en tercer año de mi ingeniería. ¿Cómo publico un trabajo de investigación?
- ¿Cómo se puede evaluar si un papel es de alta calidad o no en arxiv?
- ¿Cuál es un buen tema de papel para la economía política (pregrado)?
Aquí hay un código R para mostrar eso.
y1 <- escala (rnorm (100))
y2 <- escala (rnorm (100)) + 0.279
t.test (y1, y2)
¿Qué pasa si tomaste muestras de esa población 1000 veces? Más código:
runSims <- función (x) {
y1 <-rnorm (100)
y2 <-rnorm (100) + 0.279
return (t.test (y1, y2) $ p.value)
}
lotsOfPs <- sapply (1: 1000, runSims)
El histograma de los valores p debería verse así:
Y aquí está la tabla:
Var1 Freq
1 0 216
2 0.01 125
3 0.02 78
4 0.03 57
5 0.04 34
6 0.05 36
7 0,06 23
8 0.07 27
9 0,08 13
10 0,09 22
11 0.1 12
12 0.11 21
13 0,12 16
14 0.13 7
15 0.14 16
16 0,15 15
17 0,16 13
18 0,17 16
19 0,18 12
20 0.19 13
21 0,20 + 228
Así es como se ve una distribución real de valores p. Encontramos que (aproximadamente) una vez en 8, la p es menor que 0.01, y una vez en 4 es mayor que 0.20. Si tienen un montón de valores p alrededor de 0.05, nada por debajo de 0.01 y nada por encima de 0.20, eso es sospechoso.