Tengo una regla de cm que puede medir hasta una décima de centímetro (1 mm). ¿Es la incertidumbre por lo tanto + – 0.1cm (1mm) o + -0.5mm (0.05cm)?

Suponiendo que las líneas de la décima de cm se determinan con precisión dentro de 0.01 cm, la respuesta depende de su nivel de habilidad. Dicha habilidad generalmente se enseña con mediciones de volumen de líquido en química, pero no he visto esto a menudo o bien con los gobernantes en los cursos de ciencias. Sin embargo, la habilidad es transferible.

Puedo estimar dentro de dos décimas de la brecha entre las líneas más cercanas de cualquier dispositivo de medición con alta confiabilidad. Puedo estimar dentro de una décima parte con una incertidumbre de una décima parte de la brecha.

Sin embargo, la expectativa general para aquellos que no tienen entrenamiento es que la persona puede saber si la medición está más cerca del medio de la brecha que en cualquier extremo. Eso significa que la incertidumbre debería ser en el peor de 0,05 cm con la primera regla.

Debe ser en el peor de 0,5 cm con la segunda regla.

Las dos incertidumbres serían 0.01 cm y 0.1 cm para una persona experta.

Estoy estudiando esto en física AS en este momento, y todavía tengo que encontrar una respuesta definitiva. Sin embargo, entiendo que la incertidumbre es + -0.5 mm en cada extremo de la regla (la mitad de la resolución de un instrumento no digital), pero dado que la regla tiene dos extremos, la incertidumbre total es + -1 mm. Sin embargo, he visto usar + -0.5 mm y + -1 mm.

No importa cuál sea la resolución, esta lógica aún se mantiene y, por lo tanto, la incertidumbre de una regla de intervalos de 1 cm sería + -1 cm, etc.