¿Se refiere a incertidumbres en los datos o en los modelos?
Para los datos, generalmente lo que sucede es que se toman observaciones repetidas, lo que permite estimar la variación aleatoria debido a la incertidumbre de medición.
En estadística clásica, es usual suponer que las mediciones seguirán una distribución Normal (también conocida como distribución Gaussiana, o curva de campana). En ese caso, una buena estimación del valor verdadero de lo que sea que esté tratando de medir es la media de las mediciones, mientras que la desviación estándar de las mediciones es la incertidumbre.
- ¿Cómo podemos estudiar física, particularmente física cuántica después de la ingeniería eléctrica en India?
- ¿Qué es una singularidad?
- ¿Es posible la tecnología que se muestra en el Código fuente (película de 2011)?
- ¿Podrías crear oscuridad emitiendo ondas inversas de luz actualmente presentes?
- ¿Qué otros fenómenos se han confirmado experimentalmente para exhibir no localidad aparte del enredo cuántico?
Como recordatorio, si hago N mediciones [matemáticas] i_1 … i_N [/ matemáticas], la media [matemáticas] \ mu = (i_1 + … + i_N) / N [/ matemáticas] y la desviación estándar [matemáticas] \ sigma = \ sqrt {((i_1 – \ mu) ^ 2 +… + (i_N – \ mu) ^ 2) / N} [/ math].
La distribución Normal tiene una serie de propiedades conocidas que podemos usar. Por ejemplo, si asumimos que el valor medio es el valor verdadero y la desviación estándar es la incertidumbre de la medición, entonces podemos decir que el 68% de las mediciones se ubicarán dentro de [math] \ pm 1 \ sigma [/ math] del valor verdadero , El 95% de ellos se ubicará dentro de [matemáticas] \ pm 2 \ sigma [/ matemáticas] del valor verdadero, etc. Por lo tanto, podemos estimar la probabilidad de obtener un punto de datos dado dado un valor verdadero hipotético (por ejemplo, el predicho por un modelo ) También podemos cambiar las cosas y obtener la incertidumbre sobre el valor medio (es decir, qué tan cerca creemos que se aproxima al valor verdadero), que es [math] \ sigma / \ sqrt {N-1} [/ math]. En ese caso, primero calculamos la incertidumbre en una medición individual a través de la extensión de mediciones repetidas, y luego la usamos para inferir qué tan bien podemos restringir el valor verdadero al hacer tantas mediciones repetidas.
Entonces, ¿qué pasa si las mediciones no siguen una distribución Normal? Es curioso que esto no sea algo de lo que tengamos que preocuparnos más a menudo, pero debido a algo llamado teorema del límite central, muy a menudo tenemos algo cercano a lo normal. En pocas palabras, si la incertidumbre sobre una medición se debe realmente a la combinación de muchas incertidumbres no correlacionadas (es decir, si la situación es complicada), generalmente termina con una distribución Normal de mediciones.
Una ilustración rápida: si tira un dado repetidamente y registra las mediciones, la distribución ciertamente no será gaussiana: será plana, con igual probabilidad en 1,2,3,4,5,6 y probabilidad cero en otros valores. Si lanzas dos dados repetidamente, el valor más común es 7, mientras que 2 y 12 son los más raros. Si arroja 100 dados repetidamente, 350 es el valor más común y aquí tiene una distribución que se parece mucho a una distribución Normal (aunque solo puede obtener enteros y que claramente hay algunos valores que no puede obtener, como 99 – sin embargo, los valores posibles como 100 ahora son tan raros, una posibilidad [matemática] 1.5 \ veces 10 ^ {- 78} [/ matemática] de ocurrir, que nunca suceden de todos modos).
¡Aquí está el resultado de lanzar 100 dados y sumar su total, 10,000 veces! (está bien, hice trampa, conseguí que mi computadora tirara los dados por mí. Para aquellos interesados, la clave del código Python que usé para simular un lanzamiento de dados es la instrucción “resultado = numpy.random.randint (1,7) “Que devuelve un entero aleatorio menor que 7 y mayor o igual que 1. Seaborn: también se incluyó la visualización de datos estadísticos …) Este es un histograma de esos resultados: la media es la línea roja brillante (350.072) y he señalado los intervalos [matemática] \ pm 1 \ sigma, 2 \ sigma, 3 \ sigma [/ matemática] ([matemática] \ sigma [/ matemática] = 17.239). El error en la media es entonces 0.172.
De acuerdo, pero aun así, las mediciones no siempre siguen la distribución Normal. De hecho, lo mucho más informativo es la distribución de medidas, como el histograma anterior. Desafortunadamente, no siempre podemos hacer 10,000 observaciones repetidas. ¿Qué pasa si tomar una observación lleva seis meses? Es por eso que a menudo omitimos la desviación estándar, que si la distribución real es gaussiana será una buena estimación incluso para un puñado de observaciones. Esto puede generar grandes problemas si la distribución no es gaussiana, pero no podemos tomar muchas observaciones repetidas.
Una posible salida, que muchos físicos aseguran, es el método Bootstrap para estimar las incertidumbres; véase, por ejemplo, Bootstrapping (estadísticas). La forma en que esto funciona es usar pequeñas cantidades de mediciones para estimar cómo se ve la distribución. Uno tiene un conjunto de medidas, todas las cuales se muestrean a partir de la distribución subyacente (ya sea Normal u otra cosa). Digamos que tengo 100 mediciones, luego puedo crear un nuevo conjunto de 100 mediciones dibujando de mi conjunto de mediciones 100 veces al azar, permitiéndome dibujar la misma medición tantas veces como quiera (así que 1 vez en [matemáticas] 10 ^ {200} [/ math] Simplemente tendré la misma medida, 100 veces). Entonces puedo hacer esto una y otra vez y crear una distribución de muestras perfectamente válidas que, en principio, podría haber obtenido de la distribución subyacente. Si ahora calculo la mediana de cada uno de estos, tengo un conjunto de estimaciones del valor verdadero que, en principio, podría haber obtenido a través de mediciones reales . También me doy cuenta de lo improbable que es que hubiera obtenido tal estimación (que es lo que siempre quisimos), todo sin suponer nada sobre la distribución.