Si Entropy = Energy / Temp, en billar, ¿por qué la configuración simple y regular de bolas es menor en entropía que el desorden que queda después del descanso?

Aquí se utilizan dos versiones de entropía: la entropía termodinámica y la entropía estadística. La entropía termodinámica [matemática] S_ {therm} [/ matemática] no es simplemente energía dividida por temperatura. Se define como la integral,

[matemáticas] S_ {therm} = \ int \ frac {dQ} {T} [/ math]

donde la integral se toma a través de una serie de transformaciones termodinámicas reversibles (infinitesimales), [math] dQ [/ math] es la cantidad de calor transferido al sistema en cada paso y [math] T [/ math] es la temperatura. Por ejemplo, suponga que la temperatura de una habitación aumenta a una velocidad constante en el tiempo ([matemática] t [/ matemática]), de modo que [matemática] T = A t [/ matemática] y [matemática] dQ = P dt [/ matemáticas] para algunas constantes [matemáticas] A [/ matemáticas] y [matemáticas] P [/ matemáticas]. Entonces la entropía de la habitación después del tiempo [matemáticas] t [/ matemáticas] es

[matemáticas] S_ {therm} = \ int \ frac {p dt} {at} = \ frac {p} {a} \ ln \ frac {t} {t_0} + S_0 [/ math]

donde [math] S_0 [/ math] es la entropía de la habitación en algún momento anterior [math] t_0 [/ math]. Esto significa que la entropía de una habitación con una temperatura en constante aumento aumenta logarítmicamente con el tiempo.

La entropía estadística [matemática] S_ {estadística} [/ matemática] de un sistema donde cada configuración tiene la misma probabilidad es proporcional al logaritmo del número [matemática] \ Omega [/ matemática] de configuraciones accesibles,

[matemáticas] S_ {stat} \ propto \ ln \ Omega [/ matemáticas]

De aquí proviene el significado de entropía como medida del desorden de un sistema. Una entropía grande significa que el sistema está más ampliamente distribuido en una gran cantidad de configuraciones.

Ahora, hablemos de billar. Cuando las bolas de billar se limitan al bastidor triangular, sus posibles posiciones se limitan solo a las diferentes permutaciones de las bolas en el bastidor:

Una permutación …

… y otra permutación.

¡Hay [matemáticas] 15! = 1.3 \ veces 10 ^ {12} [/ matemáticas] diferentes formas de poner las 15 bolas de billar en el estante. La entropía de las bolas incrustadas es por lo tanto

[matemáticas] S_ {stat} \ propto \ ln 15! = 27.9 [/ matemática] ( bolas acumuladas )

Sin embargo, después de romper, las bolas pueden estar por toda la mesa. Una pelota de billar estadounidense estándar mide 2–1 / 4 ″ de ancho, lo que se traduce en un área de sección transversal de 4 pulgadas cuadradas. El área jugable de una mesa de billar estándar es 9.32 ′ × 4.65 ′ o 6241 pulgadas cuadradas. Por lo tanto, cada bola tiene aproximadamente 1560 posiciones posibles en la mesa (en realidad, hay un número infinito de posiciones, pero lo mantendremos simple al discretizar las posiciones). ¡El número de formas de organizar 15 bolas en 1560 posibles posiciones de bola es [matemáticas] 1560! / (1560–15)! = 7.4 \ veces 10 ^ {47} [/ matemáticas]. Por lo tanto, la entropía de las bolas que se extienden sobre la mesa es

[matemática] S_ {stat} \ propto \ ln \ left (7.4 \ times 10 ^ {47} \ right) = 110 [/ math] ( después del descanso )

Claramente, las bolas que se extienden sobre la mesa tienen un mayor grado de desorden que las bolas en el estante, y esto se refleja en el aumento de la entropía.

Es posible que ahora se pregunte qué tiene que ver esto con la termodinámica. En el siglo XIX, Ludwig Boltzmann demostró que si establecemos la constante de proporcionalidad en la definición de la entropía estadística ([matemática] S_ {estadística} [/ matemática]) al número [matemática] k_B = 1.38064852 \ veces 10 ^ {- 23} [/ math] J / K (ahora llamada la constante de Boltzmann), entonces la entropía estadística de un sistema físico, que representa todos sus grados de libertad, es igual a su entropía termodinámica:

[matemáticas] S = \ int \ frac {dQ} {T} = k_B \ ln \ Omega [/ matemáticas]

Entropía = Energía / Temperatura solo cuando se habla de procesos reversibles. Un juego de billar es todo menos un proceso reversible: la energía se disipa muy rápido. Entonces su definición debe ser alterada a una desigualdad.

Incluso si la energía se conservara en un juego de billar, es difícil definir la temperatura de tal conjunto. Afortunadamente, hay otra definición de entropía. Mira, una forma de llegar a todas esas relaciones termodinámicas es fenomenológica. Los científicos observaron el comportamiento de gases y líquidos bajo presión, cambiando el volumen, midiendo temperaturas y energías, etc. y en base a todo esto formularon las leyes termodinámicas conocidas. Pero también hay otra forma de desarrollar la teoría y es la mecánica estadística. Utilizando el enfoque de la mecánica estadística, la entropía se define como una medida de “desorden”. Cuanto mayor es el desorden del sistema, mayor es la entropía. Esta definición está perfectamente de acuerdo con la definición anterior, es solo otra forma de ver el problema.

Matemáticamente, la entropía en tal caso se define a través de la relación de todas las configuraciones del sistema que tienen las mismas propiedades macroscópicas al número de todas las configuraciones posibles. Hay un bazzillion de configuraciones en un juego de billar que prácticamente se ven iguales con las bolas dispersas, por lo que la entropía en tal caso debe ser grande. Pero solo hay una configuración con las bolas ubicadas de manera ordenada en un triángulo ordenado: esta es la configuración con una entropía mínima (si solo tomamos en cuenta configuraciones con todas las bolas presentes, por el bien de este ejemplo). Entonces aquí tienes un argumento de por qué es así.

Lo que podría confundirte es una aplicación ‘directa’ de la segunda ley de la termodinámica. Como mencioné anteriormente, un juego de billar es un proceso irreversible. La entropía debe aumentar en tal. Por lo tanto, la entropía al principio es más baja que la del final, con bolas desordenadas. Pero, por supuesto, estos argumentos realmente no retienen el agua, ya que podríamos comenzar con una mesa desordenada y recoger las bolas en la configuración triangular ordenada, desperdiciando energía en el proceso y el argumento termodinámico aún sería válido y la entropía aumentaría, pero al revés esta vez. El problema radica en pensar en el juego como una abstracción, una analogía con un escenario físico real; o hablando de toda la mesa como de un objeto macroscópico sujeto a las leyes de la termodinámica. Así que trata de no pensar en el juego desde este aspecto, más bien mira la analogía y la explicación (bastante mejor) usando el orden / desorden en el párrafo anterior a este.

No es. La entropía es una constante por el logaritmo del número de “microestados” (arreglos de átomos y cuantos de energía) correspondientes a un macroestado particular (descripción de alto nivel en términos de cantidades estadísticas como presión y temperatura). La segunda ley es la verdad de que si un sistema se equivoca de estado en estado al azar (sujeto a restricciones aplicables, incluidas, entre otras, las leyes de conservación), pasará más tiempo en macroestados con muchos microestados. Es solo cuando ejecuta los números, obtiene probabilidades ridículas: el factorial de números de Avogadro aparece mucho.

Pero en la medida en que un macroestado como este

está “desordenada” según los estándares humanos, esa parte del trastorno se captura por completo en la descripción macroscópica. Puede describir la posición y orientación de las bolas únicamente en términos macroscópicos. Hay muchos microestados que se ven exactamente como los anteriores y entre los cuales no se puede distinguir, pero no hay más microestados en esta configuración macroscópicamente desordenada que en un estante nuevo.

La razón por la cual las personas mencionan el desorden y la entropía en el mismo aliento es que si subes un nivel de “meta” y dices “la mesa está en un cierto nivel de desorden pero no voy a mostrarte la mesa”, entonces para cualquier cuantificación sensata de “desorden” tendrá el mismo comportamiento matemático que la entropía: será el logaritmo de una explosión combinatoria de posibilidades que una descripción de alto nivel trata como lo mismo.

¿De qué energía estás hablando? Presumiblemente, ambos casos que mencionas tienen todas las bolas en reposo en la misma superficie nivelada, por lo que la energía es la misma.

La definición de entropía es mucho más simple y clara en Mecánica estadística que en Termodinámica, y la versión de Stat Mech es mucho más fácil de aplicar al billar: la entropía es el logaritmo de la cantidad de formas diferentes en que la energía podría redistribuirse el sistema. Por lo tanto, es bastante obvio que una configuración correctamente organizada solo tiene dos grados de libertad de rotación de cada bola para variar, mientras que el desorden posterior a la ruptura también tiene los dos grados de libertad de traslación de cada bola y, por lo tanto, más entropía, aunque ninguna de las Los estados posibles tienen energías diferentes.

Finalmente, la definición de temperatura en Stat Mech es la inversa de la tasa de cambio de entropía con energía, por lo que la entropía no es “energía / temperatura”.

La premisa de su pregunta es incorrecta. No importa cómo o dónde coloque 15 bolas en una mesa de billar, ya sea que use un palo de palo para romper bolas premontadas, o las coloque al azar, una por una, la ubicación a la que llega representa una configuración única (de un número incontable de tales configuraciones), y la entropía no tiene nada que ver con esto.

Contrariamente a la creencia muy popular , pero equivocada de todos modos, la entropía no es una medida de “desorden”.

Ludwig Boltzmann cometió un error, y ese error (honesto) se ha propagado desde entonces. (Fuente: Disorder – A Cracked Crutch For Support Entropy Discussions , profesor Frank Lambert (publicado originalmente en Journal of Chemical Education (02, vol. 79, pp. 187-192)).

¡Su ejemplo de bolas de billar ejemplifica bien por qué la entropía no es desorden (ya que ni la energía ni la temperatura – las unidades de entropía (termodinámica) – son parte de la configuración)!

Esto describe la entropía en dos estados extremos como agua congelada vs vapor. ¿No hay estados intermedios de la tabla de billar después del descanso, que se aplicarían a este método que definiría numéricamente la entropía? Estoy sugiriendo que una ruptura deficiente podría y debe tener un valor de entropía en este dominio difuso. A esto sugiero que si la mesa de billar fuera una tabla infinita, entonces dir