¿Qué significa cuando decimos que sabemos que podemos medir la incertidumbre en una medición? Medimos la incertidumbre como la suma de las diferencias al cuadrado con cada valor con media, pero ¿es eso una ‘medida’ para el error?

¿Cómo medirías el error? Hay muchas formas de hacerlo.

Desea una medida de error que aumente a medida que nuestras mediciones se alejen del valor real [matemática] \ mu [/ matemática], pero ¿cómo mide la distancia desde el valor?

La definición matemática de distancia sería [math] | x – \ mu | [/ math]. Si sumamos esos, obtenemos un valor para la desviación total de nuestro objetivo. Esta suma de desviaciones debería ser un método bastante intuitivo para medir el error total . Desafortunadamente, esto termina convirtiéndose en una pesadilla matemática cuando comenzamos a hacer algo con él.

La complejidad matemática de la suma de las desviaciones llevó a muchos a usar [math] (x – \ mu) ^ 2 [/ math] para mostrar el error total. Resulta que la suma de cuadrados es matemáticamente muy amigable, y aún se mantiene con el principio básico de aumentar a medida que aumenta el tamaño de nuestros errores. Se ha demostrado que es bastante útil, aunque con razón podría argumentar que sobrepasa las grandes desviaciones y minimiza las pequeñas.

Entonces, ¿qué significa “incertidumbre” en realidad? Bueno, por sí mismos, la suma de las desviaciones y la suma de los cuadrados no es particularmente intuitiva, pero si encuentra la desviación promedio , tenemos una medición de nuestro error de medición típico . Podemos promediar nuestras desviaciones tomando nuestra suma de desviaciones y dividiendo entre [matemáticas] n [/ matemáticas] (en realidad probablemente [matemáticas] n-1 [/ matemáticas] si es una muestra). Ahora tenemos una medida que muestra qué tan lejos fuera vamos a estar en promedio. En otras palabras, nuestro error promedio .

(Si lo n-1 no tiene sentido, vaya a: ¿Existe una explicación intuitiva para la diferencia entre la desviación estándar y la desviación estándar de muestra? Mi esposa enseña estadísticas en la escuela secundaria. Tiene problemas para explicar la diferencia a sus alumnos).

Podemos hacer lo mismo con la suma de cuadrados, pero encontrar el promedio no es suficiente. La cuadratura ha distorsionado el tamaño del error. Si tomamos la raíz cuadrada de la desviación cuadrática promedio, obtenemos una medida llamada desviación estándar y también es una buena medida de nuestro error promedio. Entonces, la suma de cuadrados, que puede calcularse y manipularse matemáticamente fácilmente, puede convertirse en un número útil de desviación típica.

También usamos la desviación estándar junto con la distribución normal para darnos márgenes de error, lo que nos puede decir, con cierta probabilidad, qué tan lejos está realmente el verdadero valor.

Por lo tanto, podría llamar a la suma de cuadrados una forma arbitraria de medir el error total, pero ciertamente no tiene fundamento, y es definitivamente útil.