Los valores propios son muy importantes en muchas disciplinas y de muchas maneras diferentes. ¡Discutiré sus usos en cálculos matemáticos, reducción de dimensionalidad en análisis de datos y mecánica cuántica!
En matemáticas:
Recuerde que para una matriz dada [math] A [/ math], un vector [math] \ vec {v} [/ math] es un vector propio si
- ¿Cuáles son las cantidades físicas básicas?
- ¿Por qué cuando una onda se mueve desde su origen al eje x positivo, tomamos la distancia (x-vt)?
- ¿Cómo evalúa [math] \ int _ {- \ infty} ^ \ infty \ sin (x ^ 2) \, dx [/ math]?
- ¿Cuál es la raíz cúbica de 1 km?
- ¿Cuál es la fórmula matemática más larga?
[matemáticas] A \ vec {v} = \ lambda \ vec {v} [/ matemáticas]
Una forma de pensar esto matemáticamente es que [math] \ vec {v} [/ math] es una dirección especial tal que la acción de la matriz o transformación lineal [math] A [/ math] es simple (lo que significa que es simplemente multiplicación por un escalar). Si tenemos una base de vectores propios [matemática] n [/ matemática], [matemática] \ {\ vec {v} _i \} [/ matemática], con los valores propios correspondientes [matemática] \ lambda_i [/ matemática] entonces la transformación lineal [matemáticas] A [/ matemáticas], cuando se escribe en esta base es diagonal!
[matemáticas] A = \ begin {pmatrix} \ lambda_1 & 0 & \ cdots & 0 \\ 0 & \ lambda_2 & \ cdots & \ vdots \\ \ vdots & \ vdots & \ ddots & \ vdots \\ 0 & 0 & \ cdots & \ lambda_n \ end {pmatrix} [/ math]
En otras palabras, si puedo expresar un vector sobre esta base, entonces sé que cada componente simplemente escala en cada operación de [math] A [/ math], que es mucho más simple que una transformación lineal general. En 2 dimensiones, visualmente hablando, los vectores propios son las direcciones especiales donde el operador lineal [matemáticas] A [/ matemáticas] simplemente actúa a través de la escala . No hay rotaciones ni nada más complicado que escalar.
Visto de otra manera, considere la aplicación repetida de [matemáticas] A [/ matemáticas]. Expresemos un vector inicial [math] \ vec {w} [/ math] en la base propia [math] \ {\ vec {v} _i \} [/ math]:
[matemáticas] \ vec {w} = \ displaystyle \ sum_ {i = 1} ^ n c_i \ vec {v} _i [/ matemáticas]
Entonces, si aplicamos repetidamente [matemáticas] A [/ matemáticas], ¡el resultado es simple sobre esta base! No es una expresión muy desordenada, es solo una escala de cada componente:
[matemáticas] A ^ k \ vec {w} = \ displaystyle \ sum_ {i = 1} ^ n c_i \ lambda_i ^ k \ vec {v} _i [/ matemáticas]
Observe que como [math] k \ to \ infty [/ math], o cuando aplicamos [math] A [/ math] una y otra vez, el vector resultante convergerá hacia el vector propio con el mayor valor propio (siempre que sea mayor que o igual a 1). La dirección del vector propio correspondiente al mayor valor propio es, en cierto sentido, la dirección preferida de la transformación a largo plazo. Además, tenga en cuenta que este resultado es independiente del vector inicial (siempre que tenga un componente en esta dirección preferida), por lo que cualquier condición de inicio siempre tenderá a converger de tal manera.
Como un ejemplo real de esto, considere un modelo simple del clima. Digamos que hace sol o llueve. Si hace sol, hay un 90% de posibilidades de que siga siendo soleado, y un 10% de probabilidades de que llueva al día siguiente. Si llueve, hay una probabilidad del 40% de que llueva al día siguiente, pero una probabilidad del 60% de ponerse soleado al día siguiente. Podemos describir la evolución temporal de este proceso a través de una ecuación matricial:
[matemáticas] \ begin {pmatrix} p_ {s, n + 1} \\ p_ {r, n + 1} \ end {pmatrix} = \ begin {pmatrix} 0.9 y 0.6 \\ 0.1 y 0.4 \ end {pmatrix} \ begin {pmatrix} p_ {s, n} \\ p_ {r, n} \ end {pmatrix} [/ math]
donde [math] p_ {s, n}, p_ {r, n} [/ math] son las probabilidades de que esté soleado o que llueva el día [math] n [/ math]. (Si tiene curiosidad, este tipo de proceso se llama proceso de Markov, y la matriz que he definido se llama matriz de transición. Por cierto, este no es un muy buen modelo del clima). Una forma de ver que esta matriz proporciona el resultado deseado es ver qué resultados de la multiplicación de la matriz:
[matemáticas] p_ {s, n + 1} = 0.9p_ {s, n} + 0.6p_ {r, n} [/ matemáticas]
[matemáticas] p_ {r, n + 1} = 0.1p_ {s, n} + 0.4p_ {r, n} [/ matemáticas]
¡Esto es solo la ley de la probabilidad total! Para tener una idea de las probabilidades a largo plazo de si llueve o no, echemos un vistazo a los vectores y valores propios.
[matemáticas] \ begin {pmatrix} 0.986394 \\ 0.164399 \ end {pmatrix} \ text {with eigenvalue} 1, \ begin {pmatrix} -0.707 \\ 0.707 \ end {pmatrix} \ text {with eigenvalue} 0.3 [/ math ]
Ahora, esta matriz termina teniendo un vector propio de valor propio 1 (de hecho, todas las matrices de transición de Markov válidas lo hacen), mientras que el otro vector propio no es físico (las probabilidades no pueden ser negativas) y tiene un valor propio menor que 1. Por lo tanto, a largo plazo ejecutar , esperamos que la probabilidad de que esté soleado sea [matemática] 0.986 [/ matemática] y la probabilidad de que llueva sea [matemática] 0.164 [/ matemática] en este modelo. Esto se conoce como la distribución estacionaria . Cualquier componente del vector en la dirección del vector propio no físico se marchitará a largo plazo (su valor propio es 0.3, y [matemática] 0.3 ^ k \ a 0 [/ matemática] como [matemática] k \ a \ infty [/ matemáticas]), mientras que el que tiene un valor propio 1 sobrevivirá y dominará.
En reducción de dimensionalidad:
Un problema común en la ciencia de datos en estos días es la increíble cantidad de datos disponibles (los llamados big data). Primero, algo de terminología. Los conjuntos de datos tienden a tener una variable de respuesta , una cantidad que está intentando predecir. Podría ser el valor de una casa o la energía libre de una configuración de proteínas. Las variables que usa para predecir la respuesta se denominan características , que podrían ser las posiciones de todos los átomos de la proteína o la demografía del vecindario de la casa. Un problema común en el aprendizaje automático es crear funciones significativas y reducir la cantidad de funciones si hay demasiadas. Esto es bueno para el cálculo y para evitar el sobreajuste. Una técnica que es muy popular para esta reducción del espacio de características se conoce como análisis de componentes principales (PCA) . Aquí está la idea: tengo un gran conjunto de características, digamos [math] n [/ math]. Quiero reducir la cantidad de funciones a [math] d [/ math]. El procedimiento consiste en encontrar un conjunto de características [matemáticas] d [/ matemáticas] que mejor describa la variación en mi conjunto de datos . Por ejemplo, digamos que estoy estudiando cómo la educación y la pobreza afectan las tasas de criminalidad. Si no quiero tratar con ambas funciones, puedo usar PCA para reducir mi conjunto de datos a 1 función (por cierto, 2 funciones no son muchas … No debe hacer esto, y es solo por el bien de ejemplo). Tal vez la baja educación se correlaciona con la pobreza, por lo que ambas variables no son necesarias y puedo usar una sola combinación de las dos. Resulta matemáticamente que si pones tus datos en una matriz:
[matemáticas] X = \ begin {pmatrix} x_ {11} & x_ {12} & \ cdots & x_ {1n} \\ x_ {21} & x_ {22} & \ cdots & \ vdots \\ \ cdots & \ cdots & \ ddots & \ vdots \\ x_ {n1} y x_ {n2} & \ cdots & x_ {nn} \ end {pmatrix} [/ math]
donde cada fila es todas las características para alguna observación, entonces las mejores características nuevas (combinaciones de las características antiguas que capturan la mayor variación del conjunto de datos completo original) serán vectores propios de [matemáticas] X ^ TX [/ matemáticas] y, de hecho, aquellos con los valores propios más grandes tienen la mayor variación (los llamados componentes principales). Si decide reducir la dimensionalidad a [math] d [/ math], ¡la mejor manera de hacerlo es usar los vectores propios con los valores propios más grandes [math] d [/ math]! Los valores propios, en esta situación, dan la “pérdida” (dado que la reducción de las dimensiones da como resultado la pérdida de información) que resultaría de ignorar la característica resultante de ese vector propio. Por lo tanto, los vectores propios de los valores propios más grandes son los más importantes y deben mantenerse, si desea minimizar la “pérdida”. La prueba de este resultado es bastante elegante, así que si estás interesado, ¡definitivamente búscalo!
En mecánica cuántica :
Esta podría ser la parte más “física” de la respuesta, pero también la más extraña. En mecánica cuántica, un estado cuántico puede considerarse como un vector en algún espacio (un espacio de Hilbert para ser precisos). Algunas operaciones en el estado (como la medición o la evolución del tiempo debido a la interacción de la luz láser) pueden considerarse como una matriz que actúa sobre este vector. En general, si comienzo en un estado con el vector [math] \ vec {v} [/ math], una operación general será una matriz [math] A [/ math] que lo convierte en un vector [math] \ vec {w} [/ matemáticas]:
[matemáticas] \ vec {w} = A \ vec {v} [/ matemáticas]
Ahora, uno podría preguntarse, ¿cuál es la energía de un sistema cuántico con estado [math] \ vec {v} [/ math]? El operador que responde a esta pregunta se llama Hamiltoniano, o el operador de energía, [matemáticas] H [/ matemáticas]. Ahora, ¿qué pasa si después de aplicar [matemáticas] H [/ matemáticas], la función de onda cambia a [matemáticas] \ vec {w} [/ matemáticas]? Entonces, difícilmente se puede decir que [math] \ vec {v} [/ math] tenía alguna energía definida, porque el estado acaba de cambiar a otro estado con tal vez otra energía. Qué significa eso? ¿Está bien definida la energía? Aquí es donde entran los vectores propios y los valores propios. La única situación, donde se puede decir (de manera clásica), que algún estado tiene una energía definida es si [matemáticas] H [/ matemáticas] no cambia el estado (hasta un escalada). Esto es exactamente lo que le sucedería a un vector propio de [math] H [/ math]:
[matemáticas] H \ vec {v} = \ lambda \ vec {v} [/ matemáticas]
Aquí, el valor propio [matemáticas] \ lambda [/ matemáticas] representa la energía del estado. Este argumento es válido para cualquier cantidad “observable” o físicamente medible. En mecánica cuántica, son los valores propios de estos observables los que corresponden a los valores medidos realmente. En marcado contraste con la mecánica clásica, donde la mayoría de las mediciones pueden devolver un conjunto continuo de valores, la mecánica cuántica cuantifica estos valores, y esta cuantificación viene dada por los valores propios.
En resumen, los valores propios determinan qué vectores propios representarán los efectos a largo plazo de la aplicación repetida de una matriz, delinean las direcciones de mayor variación en la descomposición de los conjuntos de datos en componentes principales y dan los posibles valores observados en la mecánica cuántica.
Como descargo de responsabilidad, hay muchos otros usos de los valores propios. Estos son solo algunos que elegí destacar.