¿Qué es la entropía de permutación?

La entropía de permutación (PE) es una medida para series de tiempo arbitrarias basadas en el análisis de patrones de permutación.
(Parafraseando una página en ic.ac.uk ( Evaluación rápida de la entropía de permutación para el análisis de volatilidad financiera: una función de hash novedosa utilizando divergencia de sesgo de característica por Ren Lim)
Además: [1411.3904] Funciones de tipo de autocorrelación para series de datos grandes y sucias

En algunos artículos [10], la entropía de permutación de escala d usa patrones para sumas de d términos consecutivos del xt, lo que tiene sentido si el xt representa una función de densidad, como la precipitación o la carga de trabajo en un servidor. Esta versión se implementa fácilmente mediante sumas acumulativas, agregando x = cumsum (x) como primera línea del programa. (La referencia [10] citada es para J. Amigo, K. Keller y J. Kurths (eds.), Progresos recientes en dinámica simbólica y entropía de permutación, Eur. Phys. J. Special Topics 222 (2013))

Igualmente podría llamarse otra forma de correlación cruzada como llamarla otra forma de entropía.

La entropía de permutación es la entropía de Shannon de la distribución de los patrones de orden: H = – X π pπ log pπ. H puede definirse para cualquier nivel n, utilizando los vectores (xt, xt + d, …, xt + (n − 1) d) y su n! patrones de orden π [8]. En la práctica, apenas vamos más allá de n = 7. Utilizado como una medida de complejidad y desorden, H puede calcularse para series de tiempo de menos de mil valores, ya que las inexactitudes estadísticas de pπ se suavizan mediante el promedio.

Todas las referencias y documentos originales parecen bastante nuevos. En lugar de llamarlo un tema emergente, es mejor considerarlo embrionario.

La entropía de permutación [8, 9, 10] se ha utilizado en física [2, 11], medicina [12, 13, 14] e ingeniería [15, 16]. Ahora los patrones ordinales [17, 18, 19] se estudian en detalle para Big Data.

Básicamente es simplemente “entropía” como se define simplemente por ese nombre. Tiende a asociarse específicamente con series de tiempo en el contexto de la teoría de la complejidad, pero estrictamente incluso eso se llama “entropía” en ingeniería eléctrica e ingeniería de comunicaciones.

H = – ∑ (pj log2 pj) ( j = 1,…, n )

La entropía es probablemente más clara cuando se habla de campos finitos en el contexto de probabilidad (por ejemplo, dados, monedas, ruedas, estados digitales en un flujo de datos, etc.). Si tiene un conjunto de estados posibles pero solo un estado está presente en una serie de tiempo, esta es una entropía baja porque es muy ordenada y predecible. Del mismo modo, si alterna entre unos pocos estados del total de estados posibles de una manera predecible en la serie de tiempo, esto tendrá más entropía que un solo caso de estado, pero aún tendrá una previsibilidad. Si permuta a través de todos los estados posibles pero lo hace, por ejemplo, en un orden secuencial repetido, tiene más entropía pero no máxima entropía. Si los estados son completamente aleatorios y las probabilidades de cada estado son iguales (lo que también significa que la aparición en la serie temporal de cualquier otro estado es igualmente probable), tiene la entropía máxima.

También puede aplicar esto a estados no finitos (estado analógico continuo). Se aplica el mismo razonamiento básico, pero en su lugar tiene una función de probabilidad estocástica, que puede ser o no discreta en el tiempo.

La idea es que esto puede ser una medida de “aleatoriedad” y decir algo sobre sistemas dinámicos que están “en órbita” o “caóticos”. La diferencia clave es que esto captura algo acerca de la “función de generación” de las transiciones de estado a estado, además de la distribución de probabilidad estática.

Simplemente busque el término en Google: hay toneladas de enlaces, incluidos videos al respecto.

More Interesting

El automóvil acelera con la velocidad (X) y desacelera con la velocidad (Y) el tiempo total es (T) ¿cuál es la velocidad máxima adquirida por el automóvil?

¿Podría alguien explicarme este concepto cinemático?

¿Puedo convertirme en físico incluso si soy un pensador bastante lento y no soy muy inteligente? Realmente quiero porque amo las matemáticas y la física.

¿Qué es lo básico que debe preocuparse al resolver problemas de física y matemáticas?

A una altura de 4 'del suelo, desde qué tan lejos puede ver un objeto plano (como un trozo de papel) que tiene un tamaño de 4'x4', y a qué distancia promedio podría ser completamente obvio notar sin ¿La intención previa de buscarlo realmente?

Cómo resolver este simple problema de movimiento armónico

¿Cuál es el significado del teorema de Wigner-Eckart en la mecánica cuántica?

¿Hay alguna posibilidad de descubrir un método matemático para purgar infinitos en la mecánica cuántica que no sea el grupo de renormalización?

¿Qué es una tasa de cambio instantánea? ¿Cuáles son algunos ejemplos?

¿Alguna vez habrá un descubrimiento tan fantástico y fundamental que expulse todo del agua?

¿Cuáles son ejemplos de coordenadas polares en la naturaleza?

¿Por qué divide la aceleración por dos en [matemáticas] x = x_0 + v_0t + \ frac12at ^ 2 [/ matemáticas]?

¿Por qué las superficies equipotenciales de una carga puntual serán una esfera concéntrica?

¿Cuál es el fenómeno de Runge?

¿Cuáles son los mejores libros de matemáticas / física para cualquier estudiante o físico de matemáticas puras / aplicadas, además de Griffiths, Landau y Feynman?