¿Qué sucede cuando disminuye la resistencia de derivación de un galvanómetro?

Un galvanómetro se calibra eligiendo la resistencia de derivación correcta. Por ejemplo, si un galvanómetro solo tiene una sensibilidad de escala completa de 50 microamperios y desea hacer un medidor con una sensibilidad de escala completa de 50 miliamperios, debe elegir una resistencia de derivación tal que 1/1000 de la corriente fluya en el galvanómetro y el otro 999/1000 de la corriente fluye en la resistencia de derivación. Supongamos que la bobina del galvanómetro tiene una resistencia de 100 ohmios. Esto significa que cuando se desvía a escala completa (50 microamperios) tendrá 5 milivoltios a través de él. Ahora elija la resistencia de derivación para pasar (50 mA – 50 uA) = 49.950 mA cuando se aplican 5 milivoltios. R = V / I, entonces Rshunt = 5 milivoltios / 49.950 mA = 100.1001001 … ohmios. Ahora, si la resistencia de la derivación se cambia a un valor menor, entonces fluirá más corriente en la derivación y menos en el galvanómetro, por lo que la lectura será errónea al ser demasiado pequeña. Si la resistencia de la derivación se cambia a un valor mayor, entonces fluirá menos corriente en la derivación y más en la bobina del galvanómetro, por lo que la lectura será errónea al ser demasiado grande. Si abre la derivación, podría dañar el galvanómetro. Si acorta la derivación, el galvanómetro debería indicar cero.

Estás hablando de un galvanómetro que desvía o indica pequeños voltajes con una aguja.

Para medir la corriente, están equipados con una resistencia de derivación de pequeño valor (por ejemplo, una resistencia en paralelo con el galvanómetro) para generar un pequeño voltaje y una indicación de aguja correspondiente a la corriente cuando una corriente pasa a través de la derivación.

Si la derivación disminuye, entonces el galvanómetro desviará menos (indicará menos) corriente que antes de que el valor de la derivación disminuya aunque la corriente permanezca igual.