¿Cuáles son algunas formas de calcular la incertidumbre en física?

¿Se refiere a incertidumbres en los datos o en los modelos?

Para los datos, generalmente lo que sucede es que se toman observaciones repetidas, lo que permite estimar la variación aleatoria debido a la incertidumbre de medición.

En estadística clásica, es usual suponer que las mediciones seguirán una distribución Normal (también conocida como distribución Gaussiana, o curva de campana). En ese caso, una buena estimación del valor verdadero de lo que sea que esté tratando de medir es la media de las mediciones, mientras que la desviación estándar de las mediciones es la incertidumbre.

Como recordatorio, si hago N mediciones [matemáticas] i_1 … i_N [/ matemáticas], la media [matemáticas] \ mu = (i_1 + … + i_N) / N [/ matemáticas] y la desviación estándar [matemáticas] \ sigma = \ sqrt {((i_1 – \ mu) ^ 2 +… + (i_N – \ mu) ^ 2) / N} [/ math].

La distribución Normal tiene una serie de propiedades conocidas que podemos usar. Por ejemplo, si asumimos que el valor medio es el valor verdadero y la desviación estándar es la incertidumbre de la medición, entonces podemos decir que el 68% de las mediciones se ubicarán dentro de [math] \ pm 1 \ sigma [/ math] del valor verdadero , El 95% de ellos se ubicará dentro de [matemáticas] \ pm 2 \ sigma [/ matemáticas] del valor verdadero, etc. Por lo tanto, podemos estimar la probabilidad de obtener un punto de datos dado dado un valor verdadero hipotético (por ejemplo, el predicho por un modelo ) También podemos cambiar las cosas y obtener la incertidumbre sobre el valor medio (es decir, qué tan cerca creemos que se aproxima al valor verdadero), que es [math] \ sigma / \ sqrt {N-1} [/ math]. En ese caso, primero calculamos la incertidumbre en una medición individual a través de la extensión de mediciones repetidas, y luego la usamos para inferir qué tan bien podemos restringir el valor verdadero al hacer tantas mediciones repetidas.

Entonces, ¿qué pasa si las mediciones no siguen una distribución Normal? Es curioso que esto no sea algo de lo que tengamos que preocuparnos más a menudo, pero debido a algo llamado teorema del límite central, muy a menudo tenemos algo cercano a lo normal. En pocas palabras, si la incertidumbre sobre una medición se debe realmente a la combinación de muchas incertidumbres no correlacionadas (es decir, si la situación es complicada), generalmente termina con una distribución Normal de mediciones.

Una ilustración rápida: si tira un dado repetidamente y registra las mediciones, la distribución ciertamente no será gaussiana: será plana, con igual probabilidad en 1,2,3,4,5,6 y probabilidad cero en otros valores. Si lanzas dos dados repetidamente, el valor más común es 7, mientras que 2 y 12 son los más raros. Si arroja 100 dados repetidamente, 350 es el valor más común y aquí tiene una distribución que se parece mucho a una distribución Normal (aunque solo puede obtener enteros y que claramente hay algunos valores que no puede obtener, como 99 – sin embargo, los valores posibles como 100 ahora son tan raros, una posibilidad [matemática] 1.5 \ veces 10 ^ {- 78} [/ matemática] de ocurrir, que nunca suceden de todos modos).

¡Aquí está el resultado de lanzar 100 dados y sumar su total, 10,000 veces! (está bien, hice trampa, conseguí que mi computadora tirara los dados por mí. Para aquellos interesados, la clave del código Python que usé para simular un lanzamiento de dados es la instrucción “resultado = numpy.random.randint (1,7) “Que devuelve un entero aleatorio menor que 7 y mayor o igual que 1. Seaborn: también se incluyó la visualización de datos estadísticos …) Este es un histograma de esos resultados: la media es la línea roja brillante (350.072) y he señalado los intervalos [matemática] \ pm 1 \ sigma, 2 \ sigma, 3 \ sigma [/ matemática] ([matemática] \ sigma [/ matemática] = 17.239). El error en la media es entonces 0.172.

De acuerdo, pero aun así, las mediciones no siempre siguen la distribución Normal. De hecho, lo mucho más informativo es la distribución de medidas, como el histograma anterior. Desafortunadamente, no siempre podemos hacer 10,000 observaciones repetidas. ¿Qué pasa si tomar una observación lleva seis meses? Es por eso que a menudo omitimos la desviación estándar, que si la distribución real es gaussiana será una buena estimación incluso para un puñado de observaciones. Esto puede generar grandes problemas si la distribución no es gaussiana, pero no podemos tomar muchas observaciones repetidas.

Una posible salida, que muchos físicos aseguran, es el método Bootstrap para estimar las incertidumbres; véase, por ejemplo, Bootstrapping (estadísticas). La forma en que esto funciona es usar pequeñas cantidades de mediciones para estimar cómo se ve la distribución. Uno tiene un conjunto de medidas, todas las cuales se muestrean a partir de la distribución subyacente (ya sea Normal u otra cosa). Digamos que tengo 100 mediciones, luego puedo crear un nuevo conjunto de 100 mediciones dibujando de mi conjunto de mediciones 100 veces al azar, permitiéndome dibujar la misma medición tantas veces como quiera (así que 1 vez en [matemáticas] 10 ^ {200} [/ math] Simplemente tendré la misma medida, 100 veces). Entonces puedo hacer esto una y otra vez y crear una distribución de muestras perfectamente válidas que, en principio, podría haber obtenido de la distribución subyacente. Si ahora calculo la mediana de cada uno de estos, tengo un conjunto de estimaciones del valor verdadero que, en principio, podría haber obtenido a través de mediciones reales . También me doy cuenta de lo improbable que es que hubiera obtenido tal estimación (que es lo que siempre quisimos), todo sin suponer nada sobre la distribución.

Depende de a qué incertidumbre te refieras. Una de las incertidumbres en la física teórica es el principio de incertidumbre de Heisenberg. Establece que la posición y el momento de una partícula no se pueden determinar con precisión en un punto de ellos. Por lo tanto, si conoce muy bien la posición de una partícula, no podrá determinar el momento con mucha precisión. La fórmula para esto es = (incertidumbre de la posición de una partícula × incertidumbre del momento de la partícula es más o igual a H / 4pi.

More Interesting

¿Cuál es la forma más sencilla de entender el efecto observador?

¿Puede ser que las leyes de la naturaleza estén en un estado de superposición hasta que se observe su efecto?

¿Cómo conciliamos la teoría cuántica de los sólidos con el principio de exclusión de Pauli?

¿Existe alguna relación entre la entropía y el principio de incertidumbre?

¿El colapso de la función de onda es simétrico en el tiempo?

¿Podría algún proxy o asimilación de la conciencia estar activamente presente en los detectores antes del colapso de la función de onda?

En la absorción clásica de dos fotones, ¿los dos fotones se absorben realmente 'simultáneamente'? ¿Cómo difiere esto de la absorción entrelazada de dos fotones?

¿Cuáles son algunos problemas matemáticos no resueltos que darían un enfoque para resolver la mecánica cuántica?

¿Cómo pueden haber existido siempre las fluctuaciones de QM? ¿Qué lo hizo? ¿Cómo se hizo? ¿De dónde vino? ¿Qué había antes?

¿Cómo sabe un electrón cuándo "saltar" si se alcanza el umbral de energía potencial?

¿Cuál es la rama / tema más difícil de la mecánica cuántica?

En un experimento de doble rendija con moléculas grandes, ¿qué sucede cuando se observa que a través de qué rendija pasó la molécula?

¿Cuál es la amplitud de una onda de luz?

¿Qué debo aprender en mecánica cuántica durante 3 meses para estar listo para QFT?

¿Por qué los intelectuales aficionados / no científicos están obsesionados con la física cuántica?