La confusión surge porque hay un ligero desajuste entre la pregunta y la explicación detallada.
El cambio de entropía en cuestión, debido a la combinación aleatoria, es uno que trata con la teoría de la información o la entropía de Shannon como se le llama. Es simplemente una medida de aleatoriedad de los datos. La definición proporcionada (microestados y apariencia macroscópica …) se refiere a la entropía termodinámica , algo que se ocupa de … las propiedades termodinámicas del sujeto.
El vínculo entre los dos y la razón para adoptar la palabra entropía en la teoría de la información proviene de la similitud en las fórmulas para encontrar la entropía en ambos casos.
- ¿Qué piensan los estudiantes de Caltech del Laboratorio de Física de Norman Bridge?
- ¿Por qué no se pueden separar los polos de un imán?
- ¿Cómo pueden los peces que viven en aguas profundas sobrevivir a la presión?
- ¿Por qué se acumula nieve en el lado opuesto del automóvil sobre el que sopla el viento?
- ¿Podemos ver el tensor gravitacional y el tensor electromagnético como una máquina que transforma un vector en otro vector?
Ahora, la razón por la cual la entropía es más para un mazo barajado según ITh es muy simple. Aquí la entropía no es más que una medida de aleatoriedad o imprevisibilidad en los datos. Para un mazo ordenado sabemos el orden de los trajes y los números. Así, la entropía es muy menor. Sin embargo, ese no es el caso de una baraja barajada donde hay incertidumbre con respecto al acuerdo.
Si quieres saber más:
Entropía (teoría de la información) – Wikipedia