Cuando la entropía aumenta, el sistema se vuelve más desordenado. Este desorden no es necesariamente lo que consideramos información; Es solo un desastre.
Si tiene diez monedas y todas son caras, no requiere mucha información para especificar el estado de ese sistema. Hay diez cabezas, y eso es todo. Si la entropía / trastorno aumenta, necesitamos mucha más información para especificar cómo se ve el sistema; voltea todas las monedas al azar y hay dos caras, luego una cola, luego tres caras, luego dos colas, luego una cabeza y luego una cola, por ejemplo.
Esa es mucha más información para transmitir, pero no diría que el sistema “contuvo” esa información. Más bien, si por alguna razón el estado de este sistema es importante para nosotros y queremos informar a alguien más sobre ello, tenemos que transmitir más información de la que hicimos para diez cabezas.
- ¿Cuál es la hipótesis súper múltiple en el aprendizaje profundo?
- En la teoría de los orbitales moleculares, ¿por qué los orbitales sigma y sigma * de unión y antienlace tienen una mayor diferencia de energía que los orbitales pi y pi *?
- ¿Cómo funciona el fuego?
- ¿Dónde se contradicen la mecánica cuántica y la relatividad general?
- ¿Por qué un orbital tiene solo dos electrones?
“Información” es realmente una palabra que usamos cuando queremos transmitir datos sobre algún sistema.
Hay una pregunta separada e interesante sobre el origen del trastorno. Los dígitos de PI se ven desordenados, pero si conoce el truco de cómo se generan, puede producirlos todos simplemente transmitiendo información sobre una ecuación simple. Quizás todo el universo se produce así, con todo su aparente desorden, o quizás no.