Hay un aspecto relacionado con la entropía de sistemas complejos, que no se menciona en respuestas anteriores. Tratemos de analizarlo.
- La entropía puede ser entendida desde el punto de vista matemático como una medida de un estado dado de un sistema complejo bajo observación. Parece ser una declaración trivial a primera vista, pero después de un análisis más profundo revela sus poderes.
- La entropía es en realidad una medida muy simple de complejidad. A pesar de esta simplicidad, todavía es capaz de distinguir claramente diferentes estados del sistema bajo observación.
- Muy brevemente explicado, la entropía se adquiere de la siguiente manera . El estado real del sistema se asigna a uno de los contenedores (generalmente hay un número pequeño y finito de ellos) de acuerdo con su valor. Cuando sucede, el contador que pertenece al contenedor dado aumenta en uno. Después de un cierto número de mediciones, cada contenedor contiene un cierto número de conteos. Esto da un histograma. Este histograma se vuelve a calcular en probabilidades y se insertan en la ecuación que evalúa la entropía. Eso es. 🙂
- Para resumirlo. Rastreamos el estado del sistema durante un período de tiempo. Se realizó un histograma y se evaluó la entropía.
- Sabemos que si el sistema es fijo , su respuesta se mantiene constante. El valor constante llena solo un contenedor y otros obtuvieron cero recuentos. Debido a que la fórmula de entropía contiene logaritmo y la probabilidad de evento (línea plana) es igual a uno, la entropía es igual a cero (log (1) = 0).
- Si el sistema responde da una distribución aleatoria (uniforme), entonces su entropía logra el mayor valor posible.
- Todas las demás respuestas del sistema dan entropía entre los dos casos mencionados anteriormente (cero y el valor más alto posible).
- Existen muchos tipos de entropía: Shannon, información, aproximada, Sinai-Kolmogorov, muestra, multiescala, etc. Cada entropía está dando mejores resultados para algunos sistemas y falla para otros.
- Es bueno tener en cuenta que la entropía es solo una medida que simpatiza dramáticamente las respuestas del sistema bajo observación .
- La entropía se demostró como una medida poderosa que permite la clasificación e incluso la predicción de señales biológicas. Vea mi otro post sobre predicción de arritmias.
- Es importante tener siempre en cuenta las ventajas y desventajas de este método durante cualquier investigación.
Una pregunta tentadora. Gracias por eso 🙂
Buena suerte al aplicar la entropía en tu investigación. 😉
- Sabemos que la Tierra tiene masa, pero ¿cómo está deformando el espacio? ¿No significa que hay una fuerza que está empujando a la Tierra hacia abajo?
- ¿Es posible hacer un aerosol que pueda hacer hielo seco?
- ¿Por qué flotan todas las partículas de aire?
- ¿Cómo podemos tener un flujo turbulento uniforme ya que un flujo turbulento es tan aleatorio?
- ¿Puedo crear un dispositivo de enredo cuántico que capture la luz en el espacio y me permita ver los últimos millones de años en la Tierra? ¿Cómo podría hacer esto?