Hay al menos cuatro contextos en los que se utiliza la entropía como medida de alguna característica del sistema.
Esta cita establece el tono:
Hay muchas afirmaciones en la literatura que dicen que la información es lo mismo que la entropía. El motivo de esto fue dicho por Myron Tribus . La historia dice que Shannon no sabía cómo llamar a su medida, por lo que le preguntó a von Neumann, quien dijo ‘Deberías llamarlo entropía … [ya que] … nadie sabe qué es realmente la entropía, así que en un debate siempre tendrás la ventaja ‘( Tribus1971 ) La información no es incertidumbre
- ¿En qué se diferencia la masa gravitacional del peso?
- ¿Cómo se puede calcular el número de átomos en un mol?
- ¿Por qué una cuerda delgada cae lentamente si experimenta menos resistencia al aire que un objeto más grande?
- ¿Por qué a veces puedes ver electricidad estática chispeando en la oscuridad?
- ¿Qué sucede cuando dos imanes de neodimio se repelen? ¿Qué los está separando? ¿Qué cambia cuando le doy la vuelta y comienzan a atraerse?
Página en virginia.edu
Los contextos son:
- termodinámica
- Teoría de la información
- física de la información
- redes
En ese orden, los ejemplos son:
- hielo vs vapor
- mi sala de estar vs nuestro sótano de almacenamiento
- enredo vs decoherencia
- quora vs twitter