No se puede exagerar la importancia de la “entropía” en la conexión de estos tres nodos. El concepto de entropía es el hilo conductor que conecta el mundo físico (masa, energía) con el mundo de la incertidumbre de los eventos o existente (información).
Confundido: quédate conmigo un poco más y vamos a introducir este término:
masa – energía – entropía – información
- ¿Es la grafología una ciencia? ¿Es posible comprender el pasado y el carácter de una persona que usa la grafología?
- ¿En qué se diferencia el cohete SpaceX del cohete Orbital Sciences Corporation que explotó hoy? (Octubre de 2014)
- ¿Por qué la teoría del Caos no se convirtió en una nueva ciencia como se prometió en el pasado?
- ¿Por qué las ondas de radio y los rayos gamma atraviesan las paredes pero la luz visible no?
- ¿El universo obedece o dicta la ley natural?
Parte 1 . Masa – Energía: se establece la equivalencia E = mc2
Intuitivamente, puede ser fácil ver cómo se desarrolla esto en la vida diaria. Tomamos algo de gas (masa) y lo encendemos para crear fuego (energía): la masa se convierte en energía (la energía no se crea sino la masa se convierte en energía).
INTRODUCCIÓN PRIMERA: 1905: [Einstein acuñó esta relación que se convierte en la base de cómo la masa se convierte en energía. Para comprender los detalles de esta relación, puede visitar este documento: http://www.fourmilab.ch/etexts/e…
Parte 2 . Información – Energía: Permítame presentarle un término llamado “entropía” que conecta Información y Energía: Información – Entropía – Energía.
La entropía (en mi humilde opinión) es probablemente el concepto más intrigante en la ciencia física que conecta el mundo físico (energía, masa) con el mundo de la información.
- Energía – Entropía:
La entropía es la medida del desorden para una variable y se necesita energía para reducir el desorden.
En el caso de los sistemas clásicos, esta relación se explica por el aumento de la entropía (trastorno) = [disipación de calor] [/ temperatura]
Intuitivamente, se necesita absorción de calor a temperatura constante para convertir el hielo en agua. Cuando el hielo se transforma en agua, aumenta la entropía (trastorno).
PRIMERA INTRODUCCIÓN: 1865: este concepto tiene más de 100 años introducido en http://gallica.bnf.fr/ark:/12148… por el científico alemán Rudolf Clausis (http://en.wikipedia.org/wiki/Rud… )
- Información-Entropía:
El valor esperado de ese estado en el que ese objeto se define como su estado más probable y la cantidad de información almacenada por ese objeto es exactamente el inverso de eso. Esa cantidad es lo que le gustaría saber para dimensionar la cantidad de información. En otras palabras, inverso de certeza
Por ejemplo, imagine una bombilla que siempre se ilumina en color rojo, no hay información allí, hay certeza. Si, por otro lado, la bombilla se ilumina en múltiples colores en función de cierta distribución de probabilidad, existe cierta incertidumbre allí, es decir, información, lo desconocido.
Información = 1 / P (Estado del objeto) = incertidumbre de que el objeto existe en un estado
Ahora puede ver cómo la entropía, que es una medida del desorden, estará altamente conectada con la información y la definición precisa es que
La entropía (medida del trastorno) es básicamente el valor esperado de la información (incertidumbre) en diferentes estados.
PRIMERA INTRODUCCIÓN: 1948: Para mayor referencia, lea este documento de referencia http://cm.bell-labs.com/cm/ms/wh… por Claude Shannon http://en.wikipedia.org/wiki/Cla…
————————————————————————————–
En breve:
Hay un objeto imaginario en el mundo llamado M.
M quemaduras =>
Se convierte en energía E =>
E se convierte en una parte de S circundante y aumenta su desorden =>
E solo causó incertidumbre =>
E se convirtió en algo desconocido: información I
Pasamos del espacio físico al espacio abstracto. Todo es un espacio diferente.
Cubrimos Clausis, Einstein y Shannon y fuimos de 1865 a 1949.
¡Auge!
————————————————————————————–