¿Es el concepto de información un aspecto fundamental de la naturaleza?

Como dijo Patrick Reilly, CE Shannon desarrolló un marco bastante impresionante que todavía es la base de nuestra comprensión del comportamiento y las características de la información.

Sin embargo, es un concepto, o más bien un pensamiento que todavía me fascina; sería la “naturaleza” fundamental de la información, mi intuición es que el tejido mismo de la existencia está “hecho” de información, en una especie de estado “puro”.

Ahora me disculpo por las citas y aproximaciones en mi discurso, pero no se puede evitar.

Para ampliar aún más: cada componente fundamental de la realidad en todas las teorías actuales, ya sea que estemos hablando de estados de existencia clásicos o cuánticos, solo se puede percibir desde nuestro punto de vista a través de la información que lo define, y si esa información está en y de sí mismo un componente de la realidad? Esta pregunta es más filosófica que estrictamente científica, aunque yo diría que la investigación en metamatemáticas, como las obras de Gödel, pueden presentar resultados muy estimulantes.

Como señaló Quora User, hay toda una teoría de la información en matemáticas, desarrollada en gran medida por Claude Shannon.
Esta teoría está íntimamente ligada a la teoría de la entropía en física. De hecho, uno de los resultados importantes de Shannon es la función Entropía de Shannon, que calcula el contenido de información de una variable aleatoria dada:
[matemáticas] \ Eta (X) = \ sum_ {i} P (x_ {i}) \ log_ {2} (P (x_ {i})) [/ matemáticas]

Eta, o H, es la entropía de Shannon de la variable X, que podría ser un mensaje o un grupo de partículas, etc. La ecuación anterior funciona para el caso de muestra finita, donde x_i son muestras de X y P (x_i) es la probabilidad de que esa muestra se tome de X.

¿Porque es esto importante? La segunda función en la sumatoria, el logaritmo, es bastante importante porque es la función de información de X. Por lo tanto, el contenido informativo de X contribuye a la entropía de X.
En Mecánica estadística, esa afirmación se toma literalmente. Puede calcular el contenido informativo de cualquier partícula o grupo de partículas en función de ciertos supuestos fundamentales (a menudo derivados de la mecánica cuántica), y conociendo el contenido informativo de ese grupo, puede calcular su entropía:
Definición de información basada en bits: [matemática] 2 ^ {I} = g [/ matemática]

Relación de Boltzmann: [matemáticas] S = k_ {B} \ ln {g} [/ matemáticas]

=> [matemáticas] S = k_ {B} I \ ln {2} [/ matemáticas]

donde g es la “función de multiplicidad” de alguna partícula o grupo de partículas, I es el contenido informativo de esa partícula o grupo de partículas (medido en bits), S es la entropía de esa partícula o grupo de partículas, y k_B es el Constante de Boltzmann.

Si ha tenido alguna exposición a la termodinámica, sabe la importancia de la entropía en ese tema. La entropía también fue importante en la Física del Agujero Negro, donde la Entropía de un Agujero Negro puede calcularse en función del límite de Bekenstein, y uno puede predecir la radiación de Hawking en función de estos cálculos de Entropía.

Hay todo tipo de cosas interesantes que puede predecir en función de los cálculos de Entropía en física, pero enumerarlas tomaría demasiado tiempo … Si tiene algo de tiempo y acceso a una universidad local, continúe y pasee por el departamento de física, y tómese un tiempo hablar con uno de los profesores de física. Podrán mostrarle un subconjunto decente de esa lista.

Escribí una respuesta sobre stackexchange aquí: ¿Cómo demuestras que $ S = – \ sum p \ ln p $?

La relación con la física es que la entropía es la información requerida para especificar completamente el estado microscópico de un sistema físico. Esta es la relación, solo se relaciona vagamente con los modelos del universo a gran escala, porque estos se describen utilizando solo variables brutas, y la entropía es infinitesimal en comparación con la entropía en los átomos.

More Interesting

Cómo entender las dimensiones espaciales cuarta y quinta, como un laico

¿Por qué la distribución de Gibbs (como en una muestra de Gibbs) es tan útil como las distribuciones estacionarias de las cadenas de Markov? De hecho, ¿existe una relación entre minimizar la energía libre de Gibbs y las probabilidades de transición óptimas que convergen a mi distribución estacionaria objetivo?

¿Qué pasa si la gravedad es simplemente la suma de todos los fenómenos de ondas interactivas en el espacio-tiempo que resulta en un movimiento neto que converge a la fuente mayoritaria, es decir? cuerpos masivos? ¿Podría ser?

¿La teoría de cuerdas se basa en el valor de la serie 1 + 2 + 3 + 4 + 5 +… = -1/12?

¿Cuáles son las Olimpiadas de física y matemáticas más prestigiosas en las que pueden participar los estudiantes universitarios?

¿Por qué puede un Delta de Dirac tener un solo estado limitado?

¿Cuáles son algunos usos prácticos de los láseres de auto colapso no lineal debido al efecto Kerr?

Entender la teoría de la física es fácil para mí, incluso los complejos, pero realmente no puedo hacer cálculos matemáticos. ¿Qué está mal conmigo?

¿Cómo podemos describir la variedad en el centro de un sistema binario de estrellas?

¿Cuál es una buena analogía que describe la relación entre las matemáticas y la física?

¿Forjaría una pequeña pieza de '1 cm de tamaño' de grafito calentado con un gran punzón 'de cientos de toneladas de presión' generando suficiente presión para convertirlo en diamante?

Cómo probar a = v ^ 2 / r

Bajo la premisa de que no existe un círculo perfecto, excepto en abstracto, dada la fluctuación cuántica, ¿esto explica por qué pi continúa para siempre?

¿Gauss tenía razón cuando conjeturó que "el espacio no puede ser probado"?

¿Por qué multiplicamos la 'k' proporcional en la transformación de Lorentz? ¿Por qué no lo restamos o lo sumamos?