Aquí se utilizan dos versiones de entropía: la entropía termodinámica y la entropía estadística. La entropía termodinámica [matemática] S_ {therm} [/ matemática] no es simplemente energía dividida por temperatura. Se define como la integral,
[matemáticas] S_ {therm} = \ int \ frac {dQ} {T} [/ math]
donde la integral se toma a través de una serie de transformaciones termodinámicas reversibles (infinitesimales), [math] dQ [/ math] es la cantidad de calor transferido al sistema en cada paso y [math] T [/ math] es la temperatura. Por ejemplo, suponga que la temperatura de una habitación aumenta a una velocidad constante en el tiempo ([matemática] t [/ matemática]), de modo que [matemática] T = A t [/ matemática] y [matemática] dQ = P dt [/ matemáticas] para algunas constantes [matemáticas] A [/ matemáticas] y [matemáticas] P [/ matemáticas]. Entonces la entropía de la habitación después del tiempo [matemáticas] t [/ matemáticas] es
- ¿Por qué la tierra no está en equilibrio térmico con el sol?
- ¿Qué color refleja más luz, después del blanco?
- ¿Se aceleran los péndulos oscilantes lentos cuando se sostienen cerca de péndulos oscilantes rápidos?
- ¿Cuál es la razón física por la que el ancho de un neumático es diferente en diferentes bicicletas?
- ¿Qué sucederá cuando los humanos puedan crear y destruir energía? ¡Como sabemos, la gente dice que todo es posible!
[matemáticas] S_ {therm} = \ int \ frac {p dt} {at} = \ frac {p} {a} \ ln \ frac {t} {t_0} + S_0 [/ math]
donde [math] S_0 [/ math] es la entropía de la habitación en algún momento anterior [math] t_0 [/ math]. Esto significa que la entropía de una habitación con una temperatura en constante aumento aumenta logarítmicamente con el tiempo.
La entropía estadística [matemática] S_ {estadística} [/ matemática] de un sistema donde cada configuración tiene la misma probabilidad es proporcional al logaritmo del número [matemática] \ Omega [/ matemática] de configuraciones accesibles,
[matemáticas] S_ {stat} \ propto \ ln \ Omega [/ matemáticas]
De aquí proviene el significado de entropía como medida del desorden de un sistema. Una entropía grande significa que el sistema está más ampliamente distribuido en una gran cantidad de configuraciones.
Ahora, hablemos de billar. Cuando las bolas de billar se limitan al bastidor triangular, sus posibles posiciones se limitan solo a las diferentes permutaciones de las bolas en el bastidor:
Una permutación …
… y otra permutación.
¡Hay [matemáticas] 15! = 1.3 \ veces 10 ^ {12} [/ matemáticas] diferentes formas de poner las 15 bolas de billar en el estante. La entropía de las bolas incrustadas es por lo tanto
[matemáticas] S_ {stat} \ propto \ ln 15! = 27.9 [/ matemática] ( bolas acumuladas )
Sin embargo, después de romper, las bolas pueden estar por toda la mesa. Una pelota de billar estadounidense estándar mide 2–1 / 4 ″ de ancho, lo que se traduce en un área de sección transversal de 4 pulgadas cuadradas. El área jugable de una mesa de billar estándar es 9.32 ′ × 4.65 ′ o 6241 pulgadas cuadradas. Por lo tanto, cada bola tiene aproximadamente 1560 posiciones posibles en la mesa (en realidad, hay un número infinito de posiciones, pero lo mantendremos simple al discretizar las posiciones). ¡El número de formas de organizar 15 bolas en 1560 posibles posiciones de bola es [matemáticas] 1560! / (1560–15)! = 7.4 \ veces 10 ^ {47} [/ matemáticas]. Por lo tanto, la entropía de las bolas que se extienden sobre la mesa es
[matemática] S_ {stat} \ propto \ ln \ left (7.4 \ times 10 ^ {47} \ right) = 110 [/ math] ( después del descanso )
Claramente, las bolas que se extienden sobre la mesa tienen un mayor grado de desorden que las bolas en el estante, y esto se refleja en el aumento de la entropía.
Es posible que ahora se pregunte qué tiene que ver esto con la termodinámica. En el siglo XIX, Ludwig Boltzmann demostró que si establecemos la constante de proporcionalidad en la definición de la entropía estadística ([matemática] S_ {estadística} [/ matemática]) al número [matemática] k_B = 1.38064852 \ veces 10 ^ {- 23} [/ math] J / K (ahora llamada la constante de Boltzmann), entonces la entropía estadística de un sistema físico, que representa todos sus grados de libertad, es igual a su entropía termodinámica:
[matemáticas] S = \ int \ frac {dQ} {T} = k_B \ ln \ Omega [/ matemáticas]