Clásicamente, toda la información puede considerarse de manera abstracta como cadenas de 1s y 0s, pero a medida que se almacena, recupera o procesa, necesita medios físicos. Por lo tanto, está sujeto a las restricciones impuestas por las leyes de la física.
En física clásica, el estado dinámico de un sistema viene dado por un punto representativo en el espacio de dimensiones de fase correspondiente igual al doble de sus grados de libertad. Este punto codifica información de todas las posiciones y momentos generalizados de las partículas constituyentes del sistema y proporciona la información dinámica completa del sistema. Hay una función llamada hamiltoniana que se puede asociar con el sistema y hay ecuaciones llamadas ecuaciones de movimiento de Hamilton (ver Mecánica hamiltoniana) que le dan (dinámica del sistema wrt tiempo) la trayectoria del punto representativo en el espacio de fase a medida que pasa el tiempo .
Todos estos pueden expresarse en términos de 1s y 0s. Todo lo que tiene que hacer es dividir el espacio de fase en hipercubos muy pequeños y etiquetarlos. Ahora pregunte, “¿es el punto representativo en el tiempo [math] t_0 [/ math] en el cubo no.1? Si es así, etiquete el contenido por 1 de lo contrario 0. De esta manera, obtendría una cadena de 0s y un 1 en alguna parte . Esta cadena cambiaría con el tiempo a medida que el punto representativo ocupe nuevos cubos a medida que pasa el tiempo. De esta manera, puede expresar la información dinámica de un sistema en términos de bits binarios.
Existe un hermoso teorema en la mecánica clásica llamado teorema de Liouville (hamiltoniano), que demuestra que el espacio de fase actúa como un fluido incompresible ideal. ¿Qué significa eso en términos de información? Significa que la información en física clásica siempre se conserva. No se puede crear ni destruir durante la evolución del sistema. ¡Este resultado tiene implicaciones fundamentales para la mecánica estadística!
En la teoría cuántica, los medios de cálculo son radicalmente diferentes. Mientras que los bits clásicos solo tienen valores posibles 0 o 1, el giro cuántico corresponde a lo que se llama Qubit, que es una combinación lineal de los dos estados base sujetos a la restricción de que la suma de la amplitud al cuadrado debe ser la unidad. El espacio de estado de un qubit es mucho mayor que el del bit en cierto sentido, lo que significa que puede almacenar mucha más información. La mecánica cuántica potencialmente hace posible resolver problemas que serían intratables en las computadoras clásicas.
En el contexto de la mecánica cuántica, llamamos a algo unitario, cuando la suma de las probabilidades de todos los resultados posibles de un evento es 1 (uno). No es más que la conservación de la información en la teoría cuántica y siempre se conserva en la teoría cuántica. Cuando Leonard Susskind dice que la información no se destruye en un agujero negro, eso significa que, según él, la Unitaridad (física) se conserva incluso en presencia de un agujero negro que ha sido un gran rompecabezas desde que Hawking lo reconoció en la década de 1970 (paradoja de la información del agujero negro ) y una resolución completamente satisfactoria todavía no está disponible. Recientemente, la teoría de cuerdas ha aclarado el problema en gran medida a favor de la conservación de la información que respalda la afirmación de Susskind.
Un poco más de discusión sobre la “información” en física puede no ser irrelevante.
La noción científica moderna de “información” es una generalización directa del concepto de física estadística de la entropía. En termodinámica, la entropía es bastante abstracta. Se define a través de esta relación, [matemáticas] \ dS = \ delta Q / T [/ matemáticas]
A la luz de la mecánica estadística, queda claro que realmente es una medida del trastorno microscópico. La entropía se puede escribir como [matemáticas] S = \ ln w [/ matemáticas] o en la forma de Gibb
[matemáticas] S = – \ sum p_i \ ln p_i [/ matemáticas]
donde [math] p_i [/ math] es la probabilidad de un estado microscópico dado. Era bien conocido desde la última parte del siglo XIX por el trabajo de Ludwig Boltzmann y J. Willard Gibbs, pero fue Claude Shannon en 1948 quien se dio cuenta de que la noción de entropía podría aplicarse en un contexto mucho más general como la comunicación que no es directamente relacionado con la física teórica. Propuso que la información se puede definir como
[math] H \ doteq – \ sum p_i \ log_2 p_i [/ math] para cualquier sistema con una distribución de probabilidad dada [math] \ {p_i \} [/ math]
Esta es información porque representa la cantidad de “sorpresa” al realizar la medición y resultó que esta forma de pensar también era útil para la física.
Edwin Thompson Jaynes en la década de 1960 formuló la mecánica estadística como un problema para maximizar la entropía. Mostró que la definición teórica de la información de la entropía debería tratarse como más general que la definición basada en la estadística estadística.
En 1961, Rolf Landauer, formuló el principio de Landauer, según el cual, cualquier cambio lógico irreversible con la información, como borrar un bit (la fusión de dos rutas de cálculo) se asociará con un aumento de entropía correspondiente en los grados de transporte de información no libertad del aparato de procesamiento o su entorno y dice que tiene que haber una mínima cantidad de energía necesaria para cambiar un bit de información, llamado límite de Landauer : [math] kT \ ln 2 [/ math] que no es más que segunda ley de la termodinámica en el contexto de la teoría de la información.
La “paradoja de la pérdida de información” en un agujero negro considerando todo esto requeriría una discusión técnica bastante larga. Mi respuesta ya es larga. Solo si realmente desea saberlo con más detalle, hágamelo saber en la sección de comentarios. Ampliaría la respuesta.
Ref para leer más: “La física de la información” por F. Alexander Bais y J. Doyne Farmer