¿Cómo convertir números normales en notación científica?

La notación científica no pretende representar números , sino representar cantidades .

Por lo tanto, utiliza solo tantas cifras significativas (como máximo 9 o 10), según corresponda a la precisión esperada de la medición de esa cantidad. Todos los dígitos significativos posteriores se perderán, de modo que la operación

Número escrito por completo ==> conversión ==> número científicamente anotado

no es reversible más allá de unos pocos dígitos significativos.

Para la conversión, escribimos el primer dígito significativo a la izquierda del punto decimal , escribimos tantos dígitos significativos como creemos que tiene sentido , y luego agregamos como factor la potencia relevante de 10 .

(En algunas pantallas de la calculadora, en lugar de ‘ * 10 ^ power ‘, se lee ‘ e power ‘, pero el significado es el mismo. Solo tiene que leer ‘e’ como una abreviatura de ‘multiplicado por 10 a la potencia de’ )

Ejemplos:

2 ^ 63 = 9223372036854775807

pero en SN es 2 ^ 63 = 9,223372 * 10 ^ 18

2 ^ -20 = 0,000000953674316. . .

pero en SN es 2 ^ -20 = 9,53674316 * 10 ^ -7

Los números científicos se escriben de modo que haya exactamente un dígito distinto de cero delante del decimal. Luego se multiplica por una potencia de diez que representa el cambio en el valor posicional.

93,000,000 se convierte en 9.3 x 10 ^ 7

543.216 se convierte en 5.43216 x 10 ^ 2

0.000216 se convierte en 2.16 x 10 ^ -4