¿Cuál es el significado físico de los valores propios?

Los valores propios son muy importantes en muchas disciplinas y de muchas maneras diferentes. ¡Discutiré sus usos en cálculos matemáticos, reducción de dimensionalidad en análisis de datos y mecánica cuántica!

En matemáticas:

Recuerde que para una matriz dada [math] A [/ math], un vector [math] \ vec {v} [/ math] es un vector propio si

[matemáticas] A \ vec {v} = \ lambda \ vec {v} [/ matemáticas]

Una forma de pensar esto matemáticamente es que [math] \ vec {v} [/ math] es una dirección especial tal que la acción de la matriz o transformación lineal [math] A [/ math] es simple (lo que significa que es simplemente multiplicación por un escalar). Si tenemos una base de vectores propios [matemática] n [/ matemática], [matemática] \ {\ vec {v} _i \} [/ matemática], con los valores propios correspondientes [matemática] \ lambda_i [/ ​​matemática] entonces la transformación lineal [matemáticas] A [/ matemáticas], cuando se escribe en esta base es diagonal!

[matemáticas] A = \ begin {pmatrix} \ lambda_1 & 0 & \ cdots & 0 \\ 0 & \ lambda_2 & \ cdots & \ vdots \\ \ vdots & \ vdots & \ ddots & \ vdots \\ 0 & 0 & \ cdots & \ lambda_n \ end {pmatrix} [/ math]

En otras palabras, si puedo expresar un vector sobre esta base, entonces sé que cada componente simplemente escala en cada operación de [math] A [/ math], que es mucho más simple que una transformación lineal general. En 2 dimensiones, visualmente hablando, los vectores propios son las direcciones especiales donde el operador lineal [matemáticas] A [/ matemáticas] simplemente actúa a través de la escala . No hay rotaciones ni nada más complicado que escalar.

Visto de otra manera, considere la aplicación repetida de [matemáticas] A [/ matemáticas]. Expresemos un vector inicial [math] \ vec {w} [/ math] en la base propia [math] \ {\ vec {v} _i \} [/ math]:

[matemáticas] \ vec {w} = \ displaystyle \ sum_ {i = 1} ^ n c_i \ vec {v} _i [/ ​​matemáticas]

Entonces, si aplicamos repetidamente [matemáticas] A [/ matemáticas], ¡el resultado es simple sobre esta base! No es una expresión muy desordenada, es solo una escala de cada componente:

[matemáticas] A ^ k \ vec {w} = \ displaystyle \ sum_ {i = 1} ^ n c_i \ lambda_i ^ k \ vec {v} _i [/ ​​matemáticas]

Observe que como [math] k \ to \ infty [/ math], o cuando aplicamos [math] A [/ math] una y otra vez, el vector resultante convergerá hacia el vector propio con el mayor valor propio (siempre que sea mayor que o igual a 1). La dirección del vector propio correspondiente al mayor valor propio es, en cierto sentido, la dirección preferida de la transformación a largo plazo. Además, tenga en cuenta que este resultado es independiente del vector inicial (siempre que tenga un componente en esta dirección preferida), por lo que cualquier condición de inicio siempre tenderá a converger de tal manera.

Como un ejemplo real de esto, considere un modelo simple del clima. Digamos que hace sol o llueve. Si hace sol, hay un 90% de posibilidades de que siga siendo soleado, y un 10% de probabilidades de que llueva al día siguiente. Si llueve, hay una probabilidad del 40% de que llueva al día siguiente, pero una probabilidad del 60% de ponerse soleado al día siguiente. Podemos describir la evolución temporal de este proceso a través de una ecuación matricial:

[matemáticas] \ begin {pmatrix} p_ {s, n + 1} \\ p_ {r, n + 1} \ end {pmatrix} = \ begin {pmatrix} 0.9 y 0.6 \\ 0.1 y 0.4 \ end {pmatrix} \ begin {pmatrix} p_ {s, n} \\ p_ {r, n} \ end {pmatrix} [/ math]

donde [math] p_ {s, n}, p_ {r, n} [/ math] son ​​las probabilidades de que esté soleado o que llueva el día [math] n [/ math]. (Si tiene curiosidad, este tipo de proceso se llama proceso de Markov, y la matriz que he definido se llama matriz de transición. Por cierto, este no es un muy buen modelo del clima). Una forma de ver que esta matriz proporciona el resultado deseado es ver qué resultados de la multiplicación de la matriz:

[matemáticas] p_ {s, n + 1} = 0.9p_ {s, n} + 0.6p_ {r, n} [/ matemáticas]

[matemáticas] p_ {r, n + 1} = 0.1p_ {s, n} + 0.4p_ {r, n} [/ matemáticas]

¡Esto es solo la ley de la probabilidad total! Para tener una idea de las probabilidades a largo plazo de si llueve o no, echemos un vistazo a los vectores y valores propios.

[matemáticas] \ begin {pmatrix} 0.986394 \\ 0.164399 \ end {pmatrix} \ text {with eigenvalue} 1, \ begin {pmatrix} -0.707 \\ 0.707 \ end {pmatrix} \ text {with eigenvalue} 0.3 [/ math ]

Ahora, esta matriz termina teniendo un vector propio de valor propio 1 (de hecho, todas las matrices de transición de Markov válidas lo hacen), mientras que el otro vector propio no es físico (las probabilidades no pueden ser negativas) y tiene un valor propio menor que 1. Por lo tanto, a largo plazo ejecutar , esperamos que la probabilidad de que esté soleado sea [matemática] 0.986 [/ matemática] y la probabilidad de que llueva sea [matemática] 0.164 [/ matemática] en este modelo. Esto se conoce como la distribución estacionaria . Cualquier componente del vector en la dirección del vector propio no físico se marchitará a largo plazo (su valor propio es 0.3, y [matemática] 0.3 ^ k \ a 0 [/ matemática] como [matemática] k \ a \ infty [/ matemáticas]), mientras que el que tiene un valor propio 1 sobrevivirá y dominará.

En reducción de dimensionalidad:

Un problema común en la ciencia de datos en estos días es la increíble cantidad de datos disponibles (los llamados big data). Primero, algo de terminología. Los conjuntos de datos tienden a tener una variable de respuesta , una cantidad que está intentando predecir. Podría ser el valor de una casa o la energía libre de una configuración de proteínas. Las variables que usa para predecir la respuesta se denominan características , que podrían ser las posiciones de todos los átomos de la proteína o la demografía del vecindario de la casa. Un problema común en el aprendizaje automático es crear funciones significativas y reducir la cantidad de funciones si hay demasiadas. Esto es bueno para el cálculo y para evitar el sobreajuste. Una técnica que es muy popular para esta reducción del espacio de características se conoce como análisis de componentes principales (PCA) . Aquí está la idea: tengo un gran conjunto de características, digamos [math] n [/ math]. Quiero reducir la cantidad de funciones a [math] d [/ math]. El procedimiento consiste en encontrar un conjunto de características [matemáticas] d [/ matemáticas] que mejor describa la variación en mi conjunto de datos . Por ejemplo, digamos que estoy estudiando cómo la educación y la pobreza afectan las tasas de criminalidad. Si no quiero tratar con ambas funciones, puedo usar PCA para reducir mi conjunto de datos a 1 función (por cierto, 2 funciones no son muchas … No debe hacer esto, y es solo por el bien de ejemplo). Tal vez la baja educación se correlaciona con la pobreza, por lo que ambas variables no son necesarias y puedo usar una sola combinación de las dos. Resulta matemáticamente que si pones tus datos en una matriz:

[matemáticas] X = \ begin {pmatrix} x_ {11} & x_ {12} & \ cdots & x_ {1n} \\ x_ {21} & x_ {22} & \ cdots & \ vdots \\ \ cdots & \ cdots & \ ddots & \ vdots \\ x_ {n1} y x_ {n2} & \ cdots & x_ {nn} \ end {pmatrix} [/ math]

donde cada fila es todas las características para alguna observación, entonces las mejores características nuevas (combinaciones de las características antiguas que capturan la mayor variación del conjunto de datos completo original) serán vectores propios de [matemáticas] X ^ TX [/ matemáticas] y, de hecho, aquellos con los valores propios más grandes tienen la mayor variación (los llamados componentes principales). Si decide reducir la dimensionalidad a [math] d [/ math], ¡la mejor manera de hacerlo es usar los vectores propios con los valores propios más grandes [math] d [/ math]! Los valores propios, en esta situación, dan la “pérdida” (dado que la reducción de las dimensiones da como resultado la pérdida de información) que resultaría de ignorar la característica resultante de ese vector propio. Por lo tanto, los vectores propios de los valores propios más grandes son los más importantes y deben mantenerse, si desea minimizar la “pérdida”. La prueba de este resultado es bastante elegante, así que si estás interesado, ¡definitivamente búscalo!

En mecánica cuántica :

Esta podría ser la parte más “física” de la respuesta, pero también la más extraña. En mecánica cuántica, un estado cuántico puede considerarse como un vector en algún espacio (un espacio de Hilbert para ser precisos). Algunas operaciones en el estado (como la medición o la evolución del tiempo debido a la interacción de la luz láser) pueden considerarse como una matriz que actúa sobre este vector. En general, si comienzo en un estado con el vector [math] \ vec {v} [/ math], una operación general será una matriz [math] A [/ math] que lo convierte en un vector [math] \ vec {w} [/ matemáticas]:

[matemáticas] \ vec {w} = A \ vec {v} [/ matemáticas]

Ahora, uno podría preguntarse, ¿cuál es la energía de un sistema cuántico con estado [math] \ vec {v} [/ math]? El operador que responde a esta pregunta se llama Hamiltoniano, o el operador de energía, [matemáticas] H [/ matemáticas]. Ahora, ¿qué pasa si después de aplicar [matemáticas] H [/ matemáticas], la función de onda cambia a [matemáticas] \ vec {w} [/ matemáticas]? Entonces, difícilmente se puede decir que [math] \ vec {v} [/ math] tenía alguna energía definida, porque el estado acaba de cambiar a otro estado con tal vez otra energía. Qué significa eso? ¿Está bien definida la energía? Aquí es donde entran los vectores propios y los valores propios. La única situación, donde se puede decir (de manera clásica), que algún estado tiene una energía definida es si [matemáticas] H [/ matemáticas] no cambia el estado (hasta un escalada). Esto es exactamente lo que le sucedería a un vector propio de [math] H [/ math]:

[matemáticas] H \ vec {v} = \ lambda \ vec {v} [/ matemáticas]

Aquí, el valor propio [matemáticas] \ lambda [/ matemáticas] representa la energía del estado. Este argumento es válido para cualquier cantidad “observable” o físicamente medible. En mecánica cuántica, son los valores propios de estos observables los que corresponden a los valores medidos realmente. En marcado contraste con la mecánica clásica, donde la mayoría de las mediciones pueden devolver un conjunto continuo de valores, la mecánica cuántica cuantifica estos valores, y esta cuantificación viene dada por los valores propios.

En resumen, los valores propios determinan qué vectores propios representarán los efectos a largo plazo de la aplicación repetida de una matriz, delinean las direcciones de mayor variación en la descomposición de los conjuntos de datos en componentes principales y dan los posibles valores observados en la mecánica cuántica.

Como descargo de responsabilidad, hay muchos otros usos de los valores propios. Estos son solo algunos que elegí destacar.

Un vector Eigen es un vector cuya dirección permanece sin cambios cuando se le aplica una transformación lineal.

Considere la siguiente imagen en la que se muestran tres vectores. El cuadrado verde solo se dibuja para ilustrar la transformación lineal que se aplica a cada uno de estos tres vectores.

Los vectores propios (rojo) no cambian de dirección cuando se les aplica una transformación lineal (por ejemplo, escala). Otros vectores (amarillo) sí.

La transformación en este caso es una escala simple con factor 2 en la dirección horizontal y factor 0.5 en la dirección vertical, de modo que la matriz de transformación A se define como:

Un vector v = (x, y) se escala aplicando esta transformación como

La figura anterior muestra que la dirección de algunos vectores (que se muestra en rojo) no se ve afectada por esta transformación lineal. Estos vectores se denominan vectores propios de la transformación y definen de forma única la matriz cuadrada A. Esta relación determinista única es exactamente la razón por la que esos vectores se denominan ‘vectores propios’ (Eigen significa ‘específico’ en alemán).

En general, el vector propio v de una matriz A es el vector para el cual se cumple lo siguiente:

donde λ es un valor escalar llamado ‘ valor propio ‘. Esto significa que la transformación lineal A en el vector v está completamente definida por λ

Podemos reescribir la ecuación

donde I es la matriz de identidad de las mismas dimensiones que A

Sin embargo, suponiendo que v no es el vector nulo, ecuación; solo se puede definir si

no es invertible Si una matriz cuadrada no es invertible, eso significa que su Determinante debe ser igual a cero. Por lo tanto, para encontrar los vectores propios de A, simplemente tenemos que resolver la siguiente ecuación:

Para más consulta:

Valores propios y vectores propios – Wikipedia

Eigenvalue – de Wolfram MathWorld

Valores propios y vectores propios

Valores propios y vectores propios: una introducción

¿Cuál es la importancia de los valores propios / vectores propios?

http://math.mit.edu/~gs/linearal

More Interesting

¿Cuáles son las unidades de medida fundamentales que se encuentran en la naturaleza?

¿Es posible dar la ubicación de un lugar con vectores de posición en lugar de latitudes y longitudes?

¿Cómo es que las matemáticas describen la naturaleza con tanta precisión?

Minimizar la acción de un camino te da el verdadero camino físico. ¿Una partícula 'siente' cada camino y toma el que tenga menos acción?

¿Alguien puede probar matemáticamente que la masa y la gravedad son directamente proporcionales entre sí?

¿Un operador hermitiano que actúa sobre un vector de sostén produce realmente el mismo valor propio que cuando actúa sobre un vector de ket?

¿Hay algún consejo para autodidacta sobre el tema de las matemáticas y la física?

¿La informática está más basada en las matemáticas que en la física?

¿Puede la mecánica cuántica estar relacionada con ecuaciones cuadráticas?

¿Existe un nombre para el concepto de 'aceleración de aceleración'?

Álgebras de mentiras: Si [matemáticas] [A, B] = B [/ matemáticas], ¿qué es [matemáticas] e ^ {i \ alpha A} Be ^ {- i \ alpha A} [/ matemáticas]?

Si se cambia una unidad de masa en otros sistemas de unidades, ¿cómo se cambian otras cantidades físicas?

Digamos que enfrento un problema de física con una oda o pde que no tiene soluciones únicas. ¿Cómo puedo saber cuál es la solución real?

¿Cómo te volviste bueno resolviendo problemas de ingeniería física o matemática?

¿Quiero algunos problemas de física que pueda resolver por computadora?