¿Cómo se relacionan la información, la masa y la energía entre sí?

No se puede exagerar la importancia de la “entropía” en la conexión de estos tres nodos. El concepto de entropía es el hilo conductor que conecta el mundo físico (masa, energía) con el mundo de la incertidumbre de los eventos o existente (información).

Confundido: quédate conmigo un poco más y vamos a introducir este término:

masa – energía – entropía – información

Parte 1 . Masa – Energía: se establece la equivalencia E = mc2

Intuitivamente, puede ser fácil ver cómo se desarrolla esto en la vida diaria. Tomamos algo de gas (masa) y lo encendemos para crear fuego (energía): la masa se convierte en energía (la energía no se crea sino la masa se convierte en energía).

INTRODUCCIÓN PRIMERA: 1905: [Einstein acuñó esta relación que se convierte en la base de cómo la masa se convierte en energía. Para comprender los detalles de esta relación, puede visitar este documento: http://www.fourmilab.ch/etexts/e…

Parte 2 . Información – Energía: Permítame presentarle un término llamado “entropía” que conecta Información y Energía: Información – Entropía – Energía.

La entropía (en mi humilde opinión) es probablemente el concepto más intrigante en la ciencia física que conecta el mundo físico (energía, masa) con el mundo de la información.

  • Energía – Entropía:

La entropía es la medida del desorden para una variable y se necesita energía para reducir el desorden.

En el caso de los sistemas clásicos, esta relación se explica por el aumento de la entropía (trastorno) = [disipación de calor] [/ temperatura]

Intuitivamente, se necesita absorción de calor a temperatura constante para convertir el hielo en agua. Cuando el hielo se transforma en agua, aumenta la entropía (trastorno).

PRIMERA INTRODUCCIÓN: 1865: este concepto tiene más de 100 años introducido en http://gallica.bnf.fr/ark:/12148… por el científico alemán Rudolf Clausis (http://en.wikipedia.org/wiki/Rud… )

  • Información-Entropía:

El valor esperado de ese estado en el que ese objeto se define como su estado más probable y la cantidad de información almacenada por ese objeto es exactamente el inverso de eso. Esa cantidad es lo que le gustaría saber para dimensionar la cantidad de información. En otras palabras, inverso de certeza

Por ejemplo, imagine una bombilla que siempre se ilumina en color rojo, no hay información allí, hay certeza. Si, por otro lado, la bombilla se ilumina en múltiples colores en función de cierta distribución de probabilidad, existe cierta incertidumbre allí, es decir, información, lo desconocido.

Información = 1 / P (Estado del objeto) = incertidumbre de que el objeto existe en un estado

Ahora puede ver cómo la entropía, que es una medida del desorden, estará altamente conectada con la información y la definición precisa es que

La entropía (medida del trastorno) es básicamente el valor esperado de la información (incertidumbre) en diferentes estados.

PRIMERA INTRODUCCIÓN: 1948: Para mayor referencia, lea este documento de referencia http://cm.bell-labs.com/cm/ms/wh… por Claude Shannon http://en.wikipedia.org/wiki/Cla…

————————————————————————————–
En breve:

Hay un objeto imaginario en el mundo llamado M.

M quemaduras =>
Se convierte en energía E =>
E se convierte en una parte de S circundante y aumenta su desorden =>
E solo causó incertidumbre =>
E se convirtió en algo desconocido: información I

Pasamos del espacio físico al espacio abstracto. Todo es un espacio diferente.

Cubrimos Clausis, Einstein y Shannon y fuimos de 1865 a 1949.

¡Auge!
————————————————————————————–

La masa y la energía son fungibles: cada una puede convertirse en la otra. Entonces, su pregunta se reduce a “¿Cómo se relaciona la información con la energía?”

La respuesta corta es: termodinámica.

La respuesta un poco más larga pero aún muy ‘ondulada’ es que cada cambio en el universo implica un cambio en la energía que aumenta la entropía. Digamos eso de nuevo, pero más corto y contundente: cada nuevo estado del universo requiere un aumento de la entropía. La entropía implica una mayor distribución de “cosas” a través de “grados de libertad” cada vez mayores, ya sea que se trate de electrones (“cosas”) que ocupan más niveles de energía posibles (“grados de libertad”), o iones de sodio y cloro que ocupan diferentes configuraciones de enlaces iónicos Con protones e iones OH en solución, el “material” siempre se está extendiendo a través de más “grados de libertad”.

El primer vínculo obvio con la información es que una descripción completa de cualquier nuevo estado del universo siempre requerirá más información para describirlo completamente, ya que nuestra descripción debe enumerar todos los nuevos grados de libertad que se pueden ocupar y la probabilidad de que lo sean. El universo siempre se vuelve más complejo, porque siempre se mueve a un estado que requerirá más información para describirlo por completo.

Para ilustrar: la energía y la información están vinculadas a través de la energía y la entropía necesarias para “preocuparse” por una configuración específica. Por ejemplo, podemos describir adecuadamente el contenido de la RAM no inicializada diciendo algo como “esta memoria tiene 1024 gigabits, cada uno configurado en uno o cero, pero no nos importa particularmente cuál, así que los enumeraremos todos valor de X, y cada bit es libre de ser cualquier valor “. Si decidimos aplicar un patrón particular de unos y ceros en esa RAM, nuestra descripción se hace mucho más larga, como “esta memoria tiene 1024 gigabits, y el primer bit es 1, el segundo bit es 1, el tercero es 0 …” y así. Ahora, dado que el universo parece preferir estados que requieren descripciones más largas, podría pensar que imponer patrones particulares en las cosas sería algo que el universo prefiere hacer. Por desgracia, no es así. Dado que el universo siempre requiere más grados de libertad para ocuparse, y dado que cambiar un valor ‘X’ (no me importa) en ‘1’ o ‘0’ elimina un grado de libertad (ya que ‘X’ es libre para ser ‘1’ o ‘0’) debemos aumentar la entropía en otro lugar del universo. Y eso en otro lugar es, en el caso de la RAM, en la mayor distribución del movimiento de las moléculas que componen la memoria y la materia que la rodea a medida que la energía eléctrica se convierte en calor. Entonces, la descripción iría de “un montón de electrones empaquetados lo suficientemente cerca como para que su repulsión sea como un montón de resortes apretados en una caja” a “un montón de moléculas que se mueven de diferentes maneras: algunas estiradas, otras girando, algo de flexión “. Una descripción completa de todas las formas en que estas moléculas se mueven requeriría mucha más información para describir que la pérdida de grados de libertad en nuestra RAM, por lo que el universo lo permite.