No es necesariamente cierto que Entropía = Información sea tan precisa.
La entropía se puede usar como una medida de información dentro de ciertas partes de un sistema, como con la entropía de Shannon utilizada en el alfabeto inglés.
“Z” tiene más entropía que la letra “e” dentro del sistema que es el idioma inglés. Si está buscando una palabra misteriosa, entonces alguien que le diga que la palabra contiene la letra “e” no es muy útil, ya que muchas palabras la contienen. Sin embargo, si te dicen que contiene “z”, entonces has reducido las palabras en gran medida. En esta analogía, puedes ver cómo la entropía es una medida probabilística de las cosas dentro de un sistema.
- ¿Qué se sabe acerca de las ideas de gravedad de Tesla, el éter lumifero, el electromagnetismo generalizado y sus ideas de campo unificado?
- ¿Cómo cumplen las partículas de taquión con la relatividad si nada puede viajar más rápido que la luz?
- ¿Un campo eléctrico también se propaga como un campo electromagnético? ¿Es un campo eléctrico también ondulado como en la naturaleza?
- ¿Qué es la electricidad, la corriente, la diferencia potencial y la resistencia?
- Dado que la entalpía es la suma de la energía interna y los tiempos de presión cambian de volumen, y en una bomba el volumen del calorímetro es constante, ¿la energía de la reacción sería igual a la entalpía?
También hay muchas otras medidas de información, como Trans-información o Información Mutua Condicional o Ganancia de Información. Esta es una teoría complicada, por lo que le aconsejo e imploro que lea más. Necesitamos más analistas de información como tú, ¡así que buen espectáculo!
¡Espero que esto ayude!