¿Qué es una explicación intuitiva de una función generadora de momentos?

Ver ¿Cuál es la intuición de una función generadora? primero para una explicación de las funciones generadoras. La función generadora de momento (MGF) de [matemática] X [/ matemática] es la función [matemática] M (t) = \ sum_ {n = 0} ^ \ infty E (X ^ n) \ frac {t ^ n} {n!} [/ math] es la función generadora de los momentos [math] E (X ^ 0), E (X ^ 1), E (X ^ 2), \ dots [/ math], excepto con un [ math] n! [/ math] insertado para mejorar la convergencia. Esto simplemente vuelve a codificar la secuencia de momentos en una función de [matemáticas] t [/ matemáticas], de modo que podamos hacer álgebra y cálculo en lugar de trabajar directamente con la secuencia.

Normalmente, si desea encontrar un momento [matemático] E (X ^ n) [/ matemático], usaría LOTUS (consulte ¿Cuál es la explicación intuitiva detrás de la siguiente identidad de valor esperado (relacionada con LOTUS)?), Lo que implicaría hacer una suma o integral. ¡Lo bueno de los MGF es que puedes hacer esto usando derivados en su lugar! Sin embargo, no hay almuerzo gratis: tienes que hacer n derivadas en lugar de 1 integral.

Hay dos formas rápidas de ver por qué la enésima derivada de M en 0 produce el enésimo momento (suponiendo que M exista):

  • En la expansión de la serie Taylor para M aproximadamente 0, el coeficiente de [math] t ^ n / n! [/ Math] es la enésima derivada de M en 0, pero ya escribimos M como una serie de potencias arriba, por lo que los coeficientes deben emparejar.
  • [matemáticas] M (t) = E (e ^ {tX}) [/ matemáticas], entonces [matemáticas] M ‘(t) = E (Xe ^ {tX}), M’ ‘(t) = E (X ^ 2 e ^ {tX}) [/ math], etc., donde intercambiamos la derivada y la E (este intercambio requiere justificación en una prueba formal, pero aquí solo estamos dando un argumento intuitivo. Luego conecte [math] t = 0. [/ matemáticas]

Pensemos primero en la función característica [math] \ mathbb {E} (e ^ {itX}). [/ Math] Eso va alrededor del círculo [math] e ^ {ix} [/ math] a diferentes velocidades— [ matemática] t = 2 [/ matemática] sería doble velocidad, [matemática] t = 3 [/ matemática] es decir, [matemática] e ^ {i3X} [/ matemática] sería triple velocidad, etc. Esa es mi imagen geométrica.

Ahora quite el [math] i [/ math] y en lugar de dar la vuelta al círculo más rápido, se dirige a los extremos de [math] \ infty [/ math] más rápido. Integrando intuitivamente a velocidades más rápidas [math] \ mathbb {E} [e ^ {tx}], t> 0 [/ math] enfatiza diferentes características como la curtosis.

Pero, ¿qué está pasando realmente aquí? En realidad, estamos hablando de la ‘Transformación de Laplace, que, como explica Sridhar Ramesh, gira la base de una función a la base propia de la diferenciación [matemáticas] \ mathrm {span} \ {e ^ {1x}, e ^ {2x}, \ ldots \}. [/ math] Comenzando con el CDF y tomando su derivada N veces puede aproximarse como la distribución acumulativa de primeras diferencias, segundas diferencias, etc.

No estoy seguro de que la función generadora de momentos deba ser intuitiva en el sentido de identificarla con alguna imagen geométrica o algún concepto algebraico simple como un promedio. La intuición es ver cómo funcionan las cosas sin calcularlas explícitamente, por lo que para que la función generadora de momentos sea más intuitiva, ¡trabaje más con ella!

Así es como lo pienso: por definición, los momentos de una distribución [matemática] P (x) [/ matemática] son

[matemáticas] \ langle x \ rangle [/ matemáticas]

[matemáticas] \ langle x ^ 2 \ rangle [/ matemáticas]

[matemáticas] \ langle x ^ 3 \ rangle [/ matemáticas]

etc.

Debido a la linealidad, puede juntarlos para hacer una serie de potencia. Por ejemplo

[matemáticas] \ langle \ sin (x) \ rangle = \ langle x – \ frac {x ^ 3} {3!} + \ frac {x ^ 5} {5!} – \ ldots \ rangle [/ math]

[matemáticas] = \ langle x \ rangle – \ frac {\ langle x ^ 3 \ rangle} {3!} + \ frac {\ langle x ^ 5 \ rangle} {5!} – \ ldots [/ math]

Entonces, si conoce los momentos, puede obtener el valor esperado de cualquier función analítica.

La función de generación de momentos aparece cuando te preguntas si puedes ir en sentido contrario. Al encontrar el valor esperado de la función correcta, ¿podría elegir los momentos?

Usted puede. De hecho, probablemente podría descubrir muchas formas diferentes de hacerlo, pero la específica llamada función generadora de momento proviene de

[matemáticas] \ langle e ^ {tx} \ rangle = \ langle1 + tx + \ ldots + \ frac {(tx) ^ n} {n!} + \ ldots \ rangle [/ math]

Esta es una función de [math] t [/ math]. De nuevo usando linealidad

[matemáticas] \ langle e ^ {tx} \ rangle = 1 + \ langle x \ rangle t + \ ldots + \ frac {\ langle x ^ n \ rangle} {n!} t ^ n + \ ldots [/ math]

Compare esto con la serie de Taylor alrededor de cero para una función arbitraria de [math] t [/ math]

[matemáticas] f (t) = f (0) + f ‘(0) t + \ ldots + \ frac {f ^ {(n)} (0)} {n!} t ^ n + \ ldots [/ math ]

Tienen exactamente la misma forma, por lo que

[matemáticas] f (t) = \ langle e ^ {tx} \ rangle [/ math]

da

[matemáticas] f ^ {(n)} (0) = \ langle x ^ n \ rangle [/ matemáticas]

[math] f [/ math] se llama función generadora de momento. A veces, la integral para [matemáticas] \ langle x ^ n \ rangle [/ matemáticas] puede ser difícil de calcular, mientras que la derivada de la función de generación de momentos puede ser más fácil, por lo que es útil para encontrar momentos.

La función de generación de momentos también es útil para razonar sobre variables independientes. Suponga que tiene variables aleatorias independientes [matemáticas] x [/ matemáticas] y [matemáticas] y [/ matemáticas] y desea saber acerca de [matemáticas] x + y [/ matemáticas]. No hay problema.

[matemáticas] \ langle e ^ {t (x + y)} \ rangle = \ langle e ^ {tx} e ^ {ty} \ rangle = \ langle e ^ {tx} \ rangle \ langle e ^ {ty} \ rangle [/ math]

(El último paso usa independencia.) Entonces, para comprender la distribución de [math] x + y [/ math], puede simplemente multiplicar sus funciones generadoras de momento.

La función de generación de momentos también nos dice que conocer los momentos de una distribución es equivalente a conocer la distribución misma. Esto se debe a que si conoce los momentos, conoce la función de generación de momentos. Pero puede trabajar hacia atrás desde allí hasta la distribución de probabilidad con una transformación inversa de Laplace.

Con este hecho, también puede mostrar que dos procesos aleatorios son iguales al mostrar que tienen las mismas funciones generadoras de momento. También podría razonar teóricamente sobre distribuciones utilizando funciones generadoras de momento. Por ejemplo, si considera la función generadora de momento de [math] n [/ math] variables independientes, idénticamente distribuidas, al expandir la serie de potencia de [math] e ^ {xt} [/ math] puede demostrar que como [math] n \ to \ infty [/ math], la función de generación de momentos se convierte en una parábola, y la distribución del promedio es una distribución normal con una varianza proporcional a [math] 1 / n [/ math], un caso especial del teorema del límite central.

Ver también: ¿Cuál es la función de partición en física? Los textos elementales de mecánica estadística parecen calcular esto en ejemplos triviales sin definirlo en general, y los textos más avanzados simplemente suponen que ya sabes lo que es.
Transformada de Laplace (wikipedia)

Una función generadora de momentos, expresa una función en términos de componentes exponenciales. Por lo tanto, puede usar la propiedad interesante de las funciones exponenciales que, el producto de dos funciones exponenciales con la misma base, conduce a la suma de las potencias.

Esto lleva a propiedades interesantes, como la traducción de convolución en multiplicación y viceversa. Consulte esta respuesta para obtener más detalles:

La respuesta de Vladimir Novakovski a las Matemáticas Aplicadas: ¿Por qué la transformación de Laplace convierte la convolución en multiplicación?

Otras propiedades interesantes, como una función exponencial que conserva su forma, bajo diferenciación e integración, los teoremas de traducción (frecuencia, tiempo, fase, etc.), ver las propiedades de Fourier como ejemplo), también surgen de esta propiedad de la función exponencial, convirtiéndola en un Herramienta muy útil en el análisis de sistemas lineales . (Sistema lineal).

No puedo agregar nada significativamente más, excepto que tomar la transformación de Laplace de un pdf le permite aprovechar las propiedades útiles de la transformación de Laplace cuando se trata de distribuciones: por ejemplo, la transformación de Laplace de la convolución de funciones es el producto de su Laplace se transforma. Esto es útil porque las convoluciones son las densidades de las sumas. (Tenga en cuenta que M (-t) = L (t) donde L es la transformada de Laplace y M es el MGF).

La función de generación de momentos, al igual que la transformación de Fourier / Laplace, facilita el análisis de ciertas propiedades cuando se ve desde el dominio complejo, como las que implican distribuciones gaussianas, ya que puede integrarlo fácilmente como el producto de dos exponenciales, que es de nuevo un exponencial. También obtienes estas buenas propiedades cuando hay dos variables aleatorias independientes X e Y y la tercera variable aleatoria Z donde Z = X + Y, que es común en los sistemas de comunicación, el pdf de Z es la convolución de pdf de X e Y, que se traduce solo en la multiplicación de sus mgfs. Además, como su nombre lo indica, puede obtener fácilmente cualquier número de momentos simplemente con la diferenciación repetida de mgf en s = 0 u omega = 0, lo que podría ser más fácil en algunos casos, en lugar de integrarse. Personalmente, creo que está presente para facilitar su análisis una vez que lo ve desde una perspectiva diferente y es más una construcción matemática.