“Un secreto es tan bueno como la entropía”. – Claude Shannon
La entropía es una medida de información oculta a un observador en un sistema físico. De manera equivalente, si uno pudiera realizar una medición de la información oculta en un sistema a través de un nuevo canal de comunicación, la entropía mide la cantidad de sorpresa para el observador tras la medición.
En ese sentido, la entropía es una cantidad relativa que depende de la capacidad de cálculo, medición y almacenamiento del observador, así como la velocidad es una cantidad relativa que depende del marco de referencia del observador en mecánica relativista.
- ¿Los matemáticos aplicados escriben pruebas o teoremas?
- ¿Será más fácil derivar fórmulas / leyes cuanto mejor sea en matemáticas?
- ¿Cuál es el significado físico del operador cúbico Casimir de SU (3)?
- ¿Por qué la física matemática parece mucho más difícil de estudiar que las matemáticas puras?
- ¿Puedo superar a las personas que son mucho más inteligentes que yo por entusiasmo y trabajo duro en ciencias / matemáticas?
La medida termodinámica estándar en física es contar el número de estados microscópicos que no se pueden distinguir a través de mediciones macroscópicas. En la práctica, lo que se encuentra es que una gran mayoría, en el orden del número de Avogadro, de estados que dan lugar a un estado termodinámico efectivamente único. Por supuesto, si midió el sistema en una escala microscópica, podría distinguir entre estos muchos estados que dan lugar al mismo estado termodinámico. Esto está relacionado con el principio de Landauer.
Un ejemplo es un demonio de Maxwell, un dispositivo que necesita almacenar los estados medidos de un gas ideal en un gran banco de memoria para reducir la entropía del sistema de gas ideal, es decir, crear un gradiente de temperatura a través del gas ideal midiendo la velocidad de partículas de gas individuales y su filtración. Borrar bits en ese banco de memoria conlleva un costo termodinámico que explica la disminución de la entropía y, por lo tanto, la Segunda Ley es válida para todo el sistema en su conjunto, la memoria ideal más.
De hecho, esta es exactamente la razón por la cual los experimentos de física cuántica generalmente toman ritmo a baja temperatura. La reducción de la temperatura restringe el número de estados posibles a la parte de energía más baja del espectro físico, por lo que la selección de números pequeños o estados cuánticos individuales es más factible desde una perspectiva de medición y computacional.
Ver, por ejemplo, enfriamiento algorítmico y computadoras cuánticas de RMN escalables, que discutí con más detalle aquí. ¿Qué pasaría si la temperatura de mi congelador fuera cero absoluto? e irreversibilidad y la segunda ley de la termodinámica a nanoescala. Estos experimentos de física cuántica a baja temperatura son el lugar más frío del universo conocido, y solo los seres inteligentes los crean, hasta donde sabemos. Un análogo celular termodinámico para estos experimentos es un canal iónico. Tanto las células como los humanos almacenan el conocimiento del proceso para crear estos sistemas locales que reducen la entropía; global y clásica, por supuesto, la entropía aumenta; cuánticamente, la entropía se conserva, ya que la información se conserva incluso mientras fluye alrededor del universo. Es interesante que localmente , en la Tierra, el número y el tamaño de los subsistemas donde la entropía está disminuyendo está creciendo espontáneamente, incluso a medida que la entropía aumenta en su conjunto para el universo observable conocido. No creo que entendamos por qué o cuál es el final del juego aquí. Esa es quizás la pregunta más fundamental .
Otro ejemplo en física es la entropía de Bekenstein-Hawking, que relaciona el área de un agujero negro con la cantidad de información oculta detrás del horizonte de un agujero negro utilizando técnicas de medición clásicas con estados punteros seleccionados.
Aquí hay algunas referencias interesantes que exploran la idea de la entropía con más detalle:
Una solución cuántica al dilema de la flecha del tiempo
Aleatoriedad y seudoaleatoriedad
Elementos de la teoría de la información, segunda edición (Serie Wiley en telecomunicaciones y procesamiento de señales): Thomas M. Cover, Joy A. Thomas
Termodinámica de la computación
Mundos aleatorios y máxima entropía
Nosotros, por supuesto, no tenemos toda la historia de las leyes fundamentales de la física, la información y la computación elaboradas, por lo que hacer una afirmación definitiva es imposible dado el estado actual de ignorancia de nuestra especie. Sin embargo, una pista es que un concepto más fundamental podría ser la complejidad computacional; en particular, el conocimiento de un observador sobre los algoritmos requeridos para medir un sistema, abriendo efectivamente nuevos canales de información y reduciendo la cantidad de información oculta para el observador en ese sistema.