¿Cuál es la probabilidad de que un estudio científico publicado y revisado por pares tenga un valor r lo suficientemente alto como para demostrar una correlación puramente por casualidad?

Los valores R por sí solos no le dicen nada sobre la probabilidad de que las correlaciones se deban al azar. El valor R para la correlación observada para dos puntos de datos es, por definición, 1.0, pero no es significativo o significativo. Los valores P para una correlación dada están determinados por el número de observaciones, y pueden buscarse en tablas o calcularse mediante el software apropiado. Los conjuntos de datos con un gran número de observaciones pueden tener valores R bajos y ser altamente significativos.

Pero eso no es realmente una respuesta a la pregunta que hizo. Los valores P en principio le dan la probabilidad de que una correlación se deba solo al azar, y en un mundo perfecto, esa sería la respuesta a su pregunta: las correlaciones con p = 0.05 se deberían al azar el 5% del tiempo.

El mundo, por supuesto, es menos que perfecto. Existen varios supuestos subyacentes al uso de los valores p como medida de aleatoriedad, y estos no siempre son respetados por los autores de publicaciones científicas. Los principales supuestos no respetados son probablemente que las desviaciones de la línea de mejor ajuste son de hecho aleatorias, y que estas desviaciones (los residuos) se ajustan a una distribución gaussiana. Por lo tanto, los valores p a menudo subestiman la probabilidad de que las correlaciones aparentes se deban al azar.

Su pregunta contiene otra referencia a una fuente de sesgo: restringe los conjuntos de datos en cuestión a los que se publican. Está bien establecido que los resultados “positivos”, aquellos que muestran una correlación significativa, son mucho más propensos a ser publicados que los resultados negativos [1] [2].

Imaginemos que se realizan cien estudios sobre una correlación que de hecho es inexistente. Cinco de estos mostrarán significación en el nivel p <0.05, y 95 aparecerán (correctamente) probablemente debido al azar. Los editores y revisores son mucho más propensos a recomendar los cinco estudios "positivos" para su publicación. Un estudio sugiere que los resultados positivos tienen una probabilidad tres veces mayor de publicarse que los resultados negativos [3].

Este resultado sugiere que solo alrededor de un tercio de los estudios que muestran resultados significativos son realmente significativos. Y, de hecho, un estudio sobre la reproducibilidad de los experimentos de psicología mostró que solo un tercio es reproducible [4]

Entonces esa es su respuesta: un tercero.

Notas al pie

[1] http://www.ncbi.nlm.nih.gov/pmc/…

[2] Las ciencias sociales sufren un sesgo de publicación severo

[3] Revisión sistemática de la evidencia empírica de sesgo de publicación de estudio y sesgo de informe de resultados

[4] Más de la mitad de los estudios de psicología fallan en la prueba de reproducibilidad

Si los investigadores son abiertos acerca de sus métodos y honestos acerca de cuántas hipótesis se probaron implícitamente, debería poder responder esta pregunta papel por papel.

De todos modos, * en principio *, si todos hicieran el tipo correcto de correcciones estadísticas y no hicieran ningún tipo de masaje de datos para buscar un resultado publicable, la tasa de resultados falsos debería ser del 5% o menos, ya que generalmente se considera p <0.05 publicable

En realidad, según varios intentos de reproducir los hallazgos existentes, parece que la fracción falsa está más cerca del 50%.

Es una mierda, pero es lo que tenemos. La popularidad de las revisiones, metaanálisis y otros documentos que resumen otros documentos es un resultado de esto, es decir, un intento de compensar el problema.

Bueno, si está utilizando un intervalo de confianza del 95%, eso significa que su correlación tiene un 95% de posibilidades de ser cierta y 100-95% = 5% de ser falsa.

Esta es una razón por la cual los resultados de la investigación deben ser reproducibles por otros laboratorios.