La respuesta viene dada por el enlace de entropía covariante (CEB), también denominado enlace de Bousso después de Raphael Bousso, quien lo sugirió por primera vez. El CEB suena muy similar al principio holográfico (HP) en que ambos relacionan la dinámica de un sistema con lo que sucede en su límite, pero la similitud termina allí.
El HP sugiere que la física (específicamente Supergravedad o SUGRA) en un espacio-tiempo d-dimensional se puede mapear a la física de una teoría de campo conforme que vive en su límite d-1 dimensional.
El CEB está más en la línea del límite de Bekenstein que dice que la entropía de un agujero negro es proporcional al área de su horizonte:
- Parece que la mayoría de los objetos en el universo tienen un momento angular (átomos, planetas, estrellas, galaxias). ¿Qué imparte / imparte esa fuerza?
- ¿La inmensa presión en el centro de la tierra ocasionalmente bloquea algunos de los átomos allí?
- ¿Podemos hacer que una célula mediante la combinación adecuada de los átomos?
- En términos simples, ¿cuál es la diferencia entre un átomo y un elemento?
- ¿Cómo se mide el radio atómico?
S = kA4 [matemática] S = kA4 [/ matemática]
Para acortar una larga historia, la información máxima que puede almacenar en 1cc = 10−6m3 [matemática] 1cc = 10−6m3 [/ matemática] de espacio es proporcional al área de su límite. Para un volumen esférico uniforme, esa área es:
A = V2 / 3 = 10−4m2 [matemática] A = V2 / 3 = 10−4m2 [/ matemática]
Por lo tanto, la información máxima (# de bits) que puede almacenar está dada aproximadamente por:
S∼AApl [matemáticas] S∼AApl [/ matemáticas]
donde Apl [math] Apl [/ math] es el área de planck ∼10−70m2 [math] ∼10−70m2 [/ math]. Para nuestro volumen 1cc [matemático] 1cc [/ matemático] esto le da a Smax∼1066 [matemático] Smax∼1066 [/ matemático] bits.
Por supuesto, esta es una estimación aproximada del orden de magnitud, pero se encuentra en el estadio general y le da una idea del límite del que está hablando. Como puede ver, ¡todavía tenemos décadas, si no siglos, antes de que nuestra tecnología pueda saturar este límite!
Editar : Gracias a @mark por señalar que 1cc = 10−6m3 [matemática] 1cc = 10−6m3 [/ matemática] y no 10−9m3 [matemática] 10−9m3 [/ matemática]. Cambia el resultado final en tres órdenes de magnitud.
En Entropía y Área de Planck
En respuesta a las observaciones de @ david en los comentarios, permítanme elaborar dos temas.
- Área de Planck : a partir de lqg (y también de la teoría de cuerdas) sabemos que los observables geométricos, como el área y el volumen, se cuantifican en cualquier teoría de la gravedad. Este resultado está en el nivel cinemático y es independiente de cuáles son las dinámicas reales. La cantidad de área, como cabría esperar, es del orden de ∼l2pl [matemática] ∼lpl2 [/ matemática] donde lpl [matemática] lpl [/ matemática] es la longitud de Planck. En la gravedad cuántica, las entidades dinámicas son precisamente estos elementos de área a los que se asocia una variable de giro j [matemática] j [/ matemática], donde generalmente j = ± 1/2 [matemática] j = ± 1/2 [/ matemática] (el representante más bajo de SU (2)). Cada giro puede llevar un solo qubit de información. Por lo tanto, es natural asociar las áreas de planck con una sola unidad de información.
- La entropía como medida de información : existe un gran malentendido en la comunidad de la física con respecto a la relación entre la entropía S [matemáticas] S [/ matemáticas], generalmente descrita como una medida de trastorno , y la información útil I [matemáticas] I [/ matemáticas ] como el almacenado en un chip, un ábaco o cualquier otro dispositivo. Sin embargo, son uno y lo mismo. Recuerdo que me reí de una sala de chat de física una vez por decir esto, así que no espero que nadie tome esto al pie de la letra.
Pero piense en esto por un segundo (o dos). ¿Qué es la entropía?
S = kBln (N) [matemática] S = kBln (N) [/ matemática]
donde kB [matemática] kB [/ matemática] es la constante de Boltzmann y N [matemática] N [/ matemática] el número de grados microscópicos de libertad de un sistema. Para un gas en una caja, por ejemplo, N [matemáticas] N [/ matemáticas] corresponde al número de formas diferentes de distribuir las moléculas en un volumen dado. Si pudiéramos utilizar una cámara de gas como dispositivo de almacenamiento de información, cada una de estas configuraciones correspondería a una unidad de memoria. O considere una cadena de giro con m [math] m [/ math] giros. Cada giro puede tomar dos valores (clásicos) ± 1/2 [matemática] ± 1/2 [/ matemática]. Usando un giro para representar un bit, vemos que una cadena de giro de longitud m [matemática] m [/ matemática] puede codificar 2m [matemática] 2m [/ matemática] números diferentes. ¿Cuál es la entropía correspondiente?
S∼ln (2m) = mln (2) ∼ número de bits [matemática] S∼ln (2m) = mln (2) ∼ número de bits [/ matemática]
ya que hemos identificado cada giro con un bit (más precisamente qubit). Por lo tanto, podemos decir con seguridad que la entropía de un sistema es proporcional al número de bits necesarios para describir el sistema y, por lo tanto, a su capacidad de almacenamiento.
Esta respuesta está tomada de: densidad de datos teórica máxima
Espero que te diviertas, pero no dudes en responderme si tienes alguna pregunta.
Jagjit