¿Qué son los valores propios, los vectores propios y las funciones propias?

Si alguna vez tengo un hijo y ella se me acerca y me pregunta “¿Por qué la Ingeniería / Física / (Insertar cualquier disciplina científica) es incompleta sin las matemáticas” o “¿Por qué se dice que las matemáticas agregan elegancia a la intuición física?” Me referiré a la teoría de los valores propios y las estructuras propias.

A primera vista, los valores propios / vectores / funciones son conceptos muy simples. Cualquier transformación / operador lineal o función [math] \ mathbf {A} [/ math] en un espacio de dimensión finita tiene al menos un vector / función [math] \ vec {v} [/ math], junto con los valores correspondientes de [math] \ lambda [/ math] que satisface [math] \ mathbf {A} \ cdot \ vec {v} = \ lambda \ vec {v} [/ math]. Entonces, para la transformación [math] \ mathbf {A} [/ math], [math] \ vec {v} [/ math] es un vector propio y [math] \ lambda [/ math] es el valor propio correspondiente. Tenga en cuenta que he cambiado la definición habitual, que para mí es mucho más interesante. (Piénsalo).

Entonces ? Big Whoop. ¿Qué más podemos hacer con esto?

Como resulta. Mucho. El prefijo eigen- se adopta de la palabra alemana eigen para “self-” o “unique to”, “peculiar to” o “perteneciente a”. (Fuente: Wikipedia). Esto no es por casualidad. Eigenstructures (en adelante, refiriéndose a vectores propios y funciones propias juntos)

a) cuéntanos mucho sobre su transformación principal, y
b) de alguna manera determina de manera única su transformación principal

Ambas propiedades son muy importantes e interesantes para los físicos e ingenieros que pueden usar estructuras propias como abreviatura para interpretar transformaciones / operadores complicados.

Correcto. Eso es moderadamente interesante. ¿Pero puedes enseñar lo que predicas?

Lo intentaré. Consideremos una transformación lineal en [math] \ mathbf {A}: \ mathbb {R} ^ 2 \ mapsto \ mathbb {R} ^ 2 [/ math]. Para la notación desafiada, eso solo significa que el operador A toma valores del espacio vectorial de los reales 2-D, en la forma (x, y) y escupe (m, n) que, pertenece al mismo vector espacio. Supongamos que esta transformación funciona reflejando un vector a lo largo de la línea [math] y = x [/ math] como se muestra a continuación.

La línea punteada es la línea sobre la cual se reflejan los vectores. El vector en azul, como la mayoría de los otros vectores, cambia de dirección después de la transformación. Pero algunos tipos de vectores (dos para ser particulares para esta transformación) no cambian de dirección después de la reflexión. Estos se muestran mediante las líneas rojas en la figura.

El primer tipo es el paralelo a la línea de reflexión. Este es un vector propio con un valor propio ‘1’, que básicamente dice que la escala de la transformación es una como en este caso, incluso la magnitud del vector permanece igual. El otro es perpendicular a la línea de reflexión. Esto es simplemente volteado que, en álgebra vectorial, corresponde a la multiplicación por -1. Por lo tanto, corresponde a un vector propio con un valor propio de -1.

Pero esa es una transformación simple como es …

Muy bien, luego de la parte superior de mi cabeza, hagamos una transformación

[matemáticas] \ begin {bmatrix} 1 y 1 y -3 \\ 2 y 3 y 2 \\ 0 y 4 y -1 \\ \ end {bmatrix} \ cdot \ begin {bmatrix} x \\ y \\ z \\ \ end {bmatrix} = \ begin {bmatrix} x ‘\\ y’ \\ z ‘\\ \ end {bmatrix} [/ math]

donde [math] (x ‘, y’, z ‘) [/ math] son ​​versiones transformadas de [math] (x, y, z) [/ math].
Esto transforma una función definida paramétricamente como [matemática] (x, y, 0.06x ^ 3 + 0.2y + 0.4) [/ matemática], donde [matemática] x, y \ in \ {0,20 \} [/ matemática] como sigue :-

(La línea verde es la función de entrada, la línea azul es la salida).

Ajá. No es tan fácil visualizar la transformación ahora, ¿verdad? Tenga en cuenta que generalizamos el operador lineal para trabajar en funciones paramétricas en lugar de solo vectores. De hecho, puede funcionar en cualquier función que tenga una norma finita [math] \ mathrm {L ^ 2} [/ math] (tiene una representación vectorial en algún espacio funcional).

Tratemos de comprender esta transformación a través de la descomposición propia. Los vectores propios de esta transformación son [matemática] \ vec {v} _1 = \ begin {bmatrix} 20.7263 \\ -15.8556 \\ 14.5971 \ end {bmatrix} [/ math], [math] \ vec {v} _2 = \ begin {bmatrix} 19.8233 \\ -15.0320 \\ 16.4458 \ end {bmatrix} [/ math] y [math] \ vec {v} _3 = \ begin {bmatrix} -6.9863 \\ 6.1043 \\ -2.6943 \ end {bmatrix }[/matemáticas]

con valores propios [matemática] \ lambda _1 = 3.3166 [/ matemática], [matemática] \ lambda _2 = 3.0 [/ matemática], [matemática] \ lambda _3 = -3.3166 [/ matemática].

Bueno, eso es un montón de números sin sentido! Pero observe, del ejemplo anterior, que los dos vectores propios son perpendiculares entre sí. ¿Esperarías eso? INTUITIVAMENTE, SÍ porque solo hay dos formas en que la dirección no habría cambiado por la reflexión: una si el vector fuera paralelo a la línea de reflexión y dos si el vector fuera perpendicular a la línea de reflexión. ¿Se puede generalizar? NO 🙂 Porque bueno, ummmm, ¡NO!

Este tipo de vectores propios mutuamente perpendiculares o vectores propios linealmente independientes es algo BUENO en la mayoría de los casos. Mi propuesta es que incluso en este ejemplo los vectores propios son linealmente independientes. Puede probarse tomándolos como 3 columnas en una matriz y calculando su rango. Alerta de spoiler, será igual a 3. Cualquier cosa menos y los vectores propios son
NO linealmente independiente. Algo más, y lo estás haciendo mal 🙂

SI son linealmente independientes, se pueden usar como vectores base para abarcar el espacio. Para entender esto, considere el primer ejemplo. Los vectores rojos, ortogonales (sinónimo: mutuamente perpendiculares, linealmente independientes) se pueden usar como eje [matemático] x [/ matemático] e [matemático] y [/ matemático] para ese espacio. Cualquier punto puede expresarse en términos de vectores unitarios a lo largo de esas líneas rojas, en lugar de los ejes originales. (Esto se llama atravesar el espacio)

¿Cómo afecta realmente este cambio de base a la transformación? En otras palabras, si uso vectores propios como mi nueva base, ¿cómo se ve la matriz de transformación en mi nuevo espacio? Bueno, la ecuación de transformación original era,

[math] \ vec {x ‘} = \ mathbf {A} \ cdot \ vec {x} [/ math]
o, [math] \ mathbf {V} ^ {- 1} \ cdot \ vec {x ‘} = \ mathbf {V} ^ {- 1} \ cdot \ mathbf {A} \ cdot \ vec {x} [/ matemáticas],

donde [math] \ mathbf {V} = \ begin {bmatrix} \ vec {v} _1 \\ \ vec {v} _2 \\ \ vec {v} _3 \\ \ end {bmatrix} ^ \ mathbf {T} [/matemáticas]

o, [math] \ mathbf {V} ^ {- 1} \ cdot \ vec {x ‘} = \ mathbf {V} ^ {- 1} \ cdot \ mathbf {A} \ cdot \ mathbf {V} \ cdot \ mathbf {V} ^ {- 1} \ cdot \ vec {x} [/ math], usando [math] \ mathbf {V} ^ {- 1} \ cdot \ mathbf {V} = \ mathbf {I} [ /matemáticas]

o, [matemáticas] \ left (\ mathbf {V} ^ {- 1} \ cdot \ vec {x ‘} \ right) = \ left (\ mathbf {V} ^ {- 1} \ cdot \ mathbf {A} \ cdot \ mathbf {V} \ right) \ cdot \ left (\ mathbf {V} ^ {- 1} \ cdot \ vec {x} \ right) [/ math]

El término entre paréntesis en el lado izquierdo luego cambia las coordenadas de salida en aquellas con respecto a las nuevas funciones básicas, dadas por los vectores propios linealmente independientes. El último término entre paréntesis en el lado derecho luego cambia las coordenadas originales (de entrada) en esas wrt a las nuevas funciones básicas. Entonces [math] \ left (\ mathbf {V} ^ {- 1} \ cdot \ mathbf {A} \ cdot \ mathbf {V} \ right) [/ math] debe cambiar el operador original al nuevo espacio. Pero espera. Por la definición de la ecuación de valores propios dada en el primer párrafo, considerando todos los vectores propios a la vez en lugar de individualmente,

[math] \ mathbf {A} \ cdot \ mathbf {V} = \ lambda \ mathbf {V} [/ math]
o, [math] \ mathbf {V} ^ {- 1} \ mathbf {A} \ cdot \ mathbf {V} = \ mathbf {V} ^ {- 1} \ lambda \ mathbf {V} [/ math]

¡Pero [math] \ lambda [/ math] es una matriz diagonal! Entonces,

[math] \ mathbf {V} ^ {- 1} \ mathbf {A} \ cdot \ mathbf {V} = \ lambda \ mathbf {V} ^ {- 1} \ mathbf {V} [/ math],

o, [math] \ mathbf {V} ^ {- 1} \ mathbf {A} \ cdot \ mathbf {V} = \ lambda \ mathbf {I} [/ math].

La siguiente figura muestra el proceso de cambio de base: –

Por lo tanto, el operador de transformación en la nueva base es extremadamente simple y desacoplado. Finalmente, calculando esto para nuestro ejemplo,

[math] \ mathbf {V} ^ {- 1} \ mathbf {A} \ cdot \ mathbf {V} = \ begin {bmatrix} 3.3166 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & – 3.3166 \\ \ end {bmatrix} [/ math]

que como se esperaba es una matriz de transformación mucho más simple que en la base original.

Finalmente, al trazar nuestra antigua función paramétrica utilizando nuestra nueva base, vemos que la función transformada es solo una versión a escala desplazada del símbolo original de Nike.

Esto, especialmente la última parte llamada la transformación de Karhunen-Loève es la columna vertebral de los sistemas lineales. Lo creas o no, este es el punto de partida para una gran cantidad de temas como el filtrado del espacio de estado, el control, la compresión de imágenes, las funciones de onda y mucho más. Feliz explorando.

Un vector Eigen es un vector cuya dirección permanece sin cambios cuando se le aplica una transformación lineal.

Considere la siguiente imagen en la que se muestran tres vectores. El cuadrado verde solo se dibuja para ilustrar la transformación lineal que se aplica a cada uno de estos tres vectores.

Los vectores propios (rojo) no cambian de dirección cuando se les aplica una transformación lineal (por ejemplo, escala). Otros vectores (amarillo) sí.

La transformación en este caso es una escala simple con factor 2 en la dirección horizontal y factor 0.5 en la dirección vertical, de modo que la matriz de transformación A se define como:

Un vector v = (x, y) se escala aplicando esta transformación como

La figura anterior muestra que la dirección de algunos vectores (que se muestra en rojo) no se ve afectada por esta transformación lineal. Estos vectores se denominan vectores propios de la transformación y definen de forma única la matriz cuadrada A. Esta relación determinista única es exactamente la razón por la que esos vectores se denominan ‘vectores propios’ (Eigen significa ‘específico’ en alemán).

En general, el vector propio v de una matriz A es el vector para el cual se cumple lo siguiente:

donde λ es un valor escalar llamado ‘ valor propio ‘. Esto significa que la transformación lineal A en el vector v está completamente definida por λ

Podemos reescribir la ecuación

donde I es la matriz de identidad de las mismas dimensiones que A

Sin embargo, suponiendo que v no es el vector nulo, ecuación; solo se puede definir si

no es invertible Si una matriz cuadrada no es invertible, eso significa que su Determinante debe ser igual a cero. Por lo tanto, para encontrar los vectores propios de A, simplemente tenemos que resolver la siguiente ecuación:

Para más consulta:

Valores propios y vectores propios – Wikipedia

Eigenvalue – de Wolfram MathWorld

Valores propios y vectores propios

Valores propios y vectores propios: una introducción

¿Cuál es la importancia de los valores propios / vectores propios?

http://math.mit.edu/~gs/linearal

Un vector propio de una matriz cuadrada es un vector distinto de cero que, cuando se multiplica por la matriz, produce un vector que difiere del original a lo sumo por un escalar multiplicativo.

Se dice que un vector distinto de cero [math] \ vec {v} [/ math] y un escalar [math] \ lambda [/ math] son ​​un vector propio y un valor propio correspondiente del operador [math] \ mathbf {A} [/ math] si y solo si [math] \ mathbf {A} \ vec {v} = \ lambda \ vec {v} [/ math].

En otras palabras, aplicar el operador en uno de sus vectores propios es equivalente a escalar ese vector por el valor propio correspondiente.

Aquí [math] \ vec {v} [/ math] es un vector en algún espacio vectorial [math] \ mathcal {V} [/ math], [math] \ lambda [/ math] es un escalar y [math] \ mathbf {A} [/ math] es un mapa lineal de [math] \ mathcal {V} [/ math] a sí mismo (generalmente llamado operador o endomorfismo).

Algunas clases de funciones forman espacios vectoriales. En esos casos, es costumbre referirse a los vectores como funciones, por lo tanto, los vectores propios se denominan funciones propias.

Por ejemplo, las funciones suaves (infinitamente diferenciables) forman un espacio vectorial, y la función exponencial es una función propia (con un valor propio correspondiente de 1) del operador que lleva las funciones a sus derivadas.

Las matrices se pueden manipular como números. Puede sumarlos (A + B), multiplicarlos (AxB) e incluso dividirlos (A / B)

Las matrices también actúan sobre vectores. Puedes multiplicar Mv

Un vector propio de una matriz M es un vector v que permanece en el mismo vector cuando M actúa sobre v

Mv = mv

m es una constante llamada valor propio de M

m mide cuánto M reescala v cuando M actúa sobre v