¿Por qué agregamos errores en cuadratura?

No tiene nada que ver con el teorema de Pitágoras. ¡Mira a este chico! 😀

Carl Friedrich Gauss y https://en.wikipedia.org/wiki/Pr… y los diferentes medios aritméticos significan aritmética y media cuadrática

En la forma más simple (lineal) de errores independientes: Digamos que haces un experimento y mides las desviaciones de un valor medio. Estas desviaciones pueden ser positivas o negativas. ¡Entonces sumas los cuadrados de todas las desviaciones (para deshacerte de + y -) y luego obtienes la raíz cuadrada de esa suma al final! 😉

Ejemplo si no lo haces de esta manera (por lo que puedo recordar, uni es hace mucho tiempo 😉):

medidas: 102, 99, 100, 103, 99, 97, 101, 101, 100, 98

valor medio: x = 100

desviaciones: +2, -1, 0, +3, -1, -3, +1, +1, 0, -2

Agregarlos y promediarlos conducirá a: (2-1 + 0 + 3-1-3 + 1 + 1 + 0-2) / 10 = 0 !!!

El 10 es “ponderación de error lineal”. Por lo tanto, pesa todos los valores de la misma manera (10 valores, por lo que cada desviación se divide por 10)

x = 100, ± 0.00 ¡GUAU! ¡Eres realmente bueno con tus medidas! Uhhm … ¡bastante improbable! 😀

Si lo haces de la mejor manera (root-mean-square):

[(102-100) ^ 2 + (99-100) ^ 2 + (100-100) ^ 2 + (103-100) ^ 2 +….) / 10] ^ 1/2

((4 + 1 + 0 + 9 + 1 + 9 + 1 + 1 + 0 + 4) / 10) ^ 1/2 = (30/10) ^ 1/2 = 1.73

x = 100 ± 1.73

¿Cuál de los dos valores se parece mejor al resultado de tu experimento?