Si alguna vez tengo un hijo y ella se me acerca y me pregunta “¿Por qué la Ingeniería / Física / (Insertar cualquier disciplina científica) es incompleta sin las matemáticas” o “¿Por qué se dice que las matemáticas agregan elegancia a la intuición física?” Me referiré a la teoría de los valores propios y las estructuras propias.
A primera vista, los valores propios / vectores / funciones son conceptos muy simples. Cualquier transformación / operador lineal o función [math] \ mathbf {A} [/ math] en un espacio de dimensión finita tiene al menos un vector / función [math] \ vec {v} [/ math], junto con los valores correspondientes de [math] \ lambda [/ math] que satisface [math] \ mathbf {A} \ cdot \ vec {v} = \ lambda \ vec {v} [/ math]. Entonces, para la transformación [math] \ mathbf {A} [/ math], [math] \ vec {v} [/ math] es un vector propio y [math] \ lambda [/ math] es el valor propio correspondiente. Tenga en cuenta que he cambiado la definición habitual, que para mí es mucho más interesante. (Piénsalo).
Entonces ? Big Whoop. ¿Qué más podemos hacer con esto?
- Cómo prepararse para matemáticas nivel 2 y física en casa
- Cómo enseñar simetría a alguien que no lo sabe
- ¿Hay alguna razón significativa de que la Ley de gravitación universal de Newton y la Ley de Coulomb sean similares?
- ¿La luz siempre sigue la ley del cuadrado inverso?
- ¿Por qué el espacio físico tiene 3 dimensiones?
Como resulta. Mucho. El prefijo eigen- se adopta de la palabra alemana eigen para “self-” o “unique to”, “peculiar to” o “perteneciente a”. (Fuente: Wikipedia). Esto no es por casualidad. Eigenstructures (en adelante, refiriéndose a vectores propios y funciones propias juntos)
a) cuéntanos mucho sobre su transformación principal, y
b) de alguna manera determina de manera única su transformación principal
Ambas propiedades son muy importantes e interesantes para los físicos e ingenieros que pueden usar estructuras propias como abreviatura para interpretar transformaciones / operadores complicados.
Correcto. Eso es moderadamente interesante. ¿Pero puedes enseñar lo que predicas?
Lo intentaré. Consideremos una transformación lineal en [math] \ mathbf {A}: \ mathbb {R} ^ 2 \ mapsto \ mathbb {R} ^ 2 [/ math]. Para la notación desafiada, eso solo significa que el operador A toma valores del espacio vectorial de los reales 2-D, en la forma (x, y) y escupe (m, n) que, pertenece al mismo vector espacio. Supongamos que esta transformación funciona reflejando un vector a lo largo de la línea [math] y = x [/ math] como se muestra a continuación.
La línea punteada es la línea sobre la cual se reflejan los vectores. El vector en azul, como la mayoría de los otros vectores, cambia de dirección después de la transformación. Pero algunos tipos de vectores (dos para ser particulares para esta transformación) no cambian de dirección después de la reflexión. Estos se muestran mediante las líneas rojas en la figura.
El primer tipo es el paralelo a la línea de reflexión. Este es un vector propio con un valor propio ‘1’, que básicamente dice que la escala de la transformación es una como en este caso, incluso la magnitud del vector permanece igual. El otro es perpendicular a la línea de reflexión. Esto es simplemente volteado que, en álgebra vectorial, corresponde a la multiplicación por -1. Por lo tanto, corresponde a un vector propio con un valor propio de -1.
Pero esa es una transformación simple como es …
Muy bien, luego de la parte superior de mi cabeza, hagamos una transformación
[matemáticas] \ begin {bmatrix} 1 y 1 y -3 \\ 2 y 3 y 2 \\ 0 y 4 y -1 \\ \ end {bmatrix} \ cdot \ begin {bmatrix} x \\ y \\ z \\ \ end {bmatrix} = \ begin {bmatrix} x ‘\\ y’ \\ z ‘\\ \ end {bmatrix} [/ math]
donde [math] (x ‘, y’, z ‘) [/ math] son versiones transformadas de [math] (x, y, z) [/ math].
Esto transforma una función definida paramétricamente como [matemática] (x, y, 0.06x ^ 3 + 0.2y + 0.4) [/ matemática], donde [matemática] x, y \ in \ {0,20 \} [/ matemática] como sigue :-
(La línea verde es la función de entrada, la línea azul es la salida).
Ajá. No es tan fácil visualizar la transformación ahora, ¿verdad? Tenga en cuenta que generalizamos el operador lineal para trabajar en funciones paramétricas en lugar de solo vectores. De hecho, puede funcionar en cualquier función que tenga una norma finita [math] \ mathrm {L ^ 2} [/ math] (tiene una representación vectorial en algún espacio funcional).
Tratemos de comprender esta transformación a través de la descomposición propia. Los vectores propios de esta transformación son [matemática] \ vec {v} _1 = \ begin {bmatrix} 20.7263 \\ -15.8556 \\ 14.5971 \ end {bmatrix} [/ math], [math] \ vec {v} _2 = \ begin {bmatrix} 19.8233 \\ -15.0320 \\ 16.4458 \ end {bmatrix} [/ math] y [math] \ vec {v} _3 = \ begin {bmatrix} -6.9863 \\ 6.1043 \\ -2.6943 \ end {bmatrix }[/matemáticas]
con valores propios [matemática] \ lambda _1 = 3.3166 [/ matemática], [matemática] \ lambda _2 = 3.0 [/ matemática], [matemática] \ lambda _3 = -3.3166 [/ matemática].
Bueno, eso es un montón de números sin sentido! Pero observe, del ejemplo anterior, que los dos vectores propios son perpendiculares entre sí. ¿Esperarías eso? INTUITIVAMENTE, SÍ porque solo hay dos formas en que la dirección no habría cambiado por la reflexión: una si el vector fuera paralelo a la línea de reflexión y dos si el vector fuera perpendicular a la línea de reflexión. ¿Se puede generalizar? NO 🙂 Porque bueno, ummmm, ¡NO!
Este tipo de vectores propios mutuamente perpendiculares o vectores propios linealmente independientes es algo BUENO en la mayoría de los casos. Mi propuesta es que incluso en este ejemplo los vectores propios son linealmente independientes. Puede probarse tomándolos como 3 columnas en una matriz y calculando su rango. Alerta de spoiler, será igual a 3. Cualquier cosa menos y los vectores propios son
NO linealmente independiente. Algo más, y lo estás haciendo mal 🙂
SI son linealmente independientes, se pueden usar como vectores base para abarcar el espacio. Para entender esto, considere el primer ejemplo. Los vectores rojos, ortogonales (sinónimo: mutuamente perpendiculares, linealmente independientes) se pueden usar como eje [matemático] x [/ matemático] e [matemático] y [/ matemático] para ese espacio. Cualquier punto puede expresarse en términos de vectores unitarios a lo largo de esas líneas rojas, en lugar de los ejes originales. (Esto se llama atravesar el espacio)
¿Cómo afecta realmente este cambio de base a la transformación? En otras palabras, si uso vectores propios como mi nueva base, ¿cómo se ve la matriz de transformación en mi nuevo espacio? Bueno, la ecuación de transformación original era,
[math] \ vec {x ‘} = \ mathbf {A} \ cdot \ vec {x} [/ math]
o, [math] \ mathbf {V} ^ {- 1} \ cdot \ vec {x ‘} = \ mathbf {V} ^ {- 1} \ cdot \ mathbf {A} \ cdot \ vec {x} [/ matemáticas],
donde [math] \ mathbf {V} = \ begin {bmatrix} \ vec {v} _1 \\ \ vec {v} _2 \\ \ vec {v} _3 \\ \ end {bmatrix} ^ \ mathbf {T} [/matemáticas]
o, [math] \ mathbf {V} ^ {- 1} \ cdot \ vec {x ‘} = \ mathbf {V} ^ {- 1} \ cdot \ mathbf {A} \ cdot \ mathbf {V} \ cdot \ mathbf {V} ^ {- 1} \ cdot \ vec {x} [/ math], usando [math] \ mathbf {V} ^ {- 1} \ cdot \ mathbf {V} = \ mathbf {I} [ /matemáticas]
o, [matemáticas] \ left (\ mathbf {V} ^ {- 1} \ cdot \ vec {x ‘} \ right) = \ left (\ mathbf {V} ^ {- 1} \ cdot \ mathbf {A} \ cdot \ mathbf {V} \ right) \ cdot \ left (\ mathbf {V} ^ {- 1} \ cdot \ vec {x} \ right) [/ math]
El término entre paréntesis en el lado izquierdo luego cambia las coordenadas de salida en aquellas con respecto a las nuevas funciones básicas, dadas por los vectores propios linealmente independientes. El último término entre paréntesis en el lado derecho luego cambia las coordenadas originales (de entrada) en esas wrt a las nuevas funciones básicas. Entonces [math] \ left (\ mathbf {V} ^ {- 1} \ cdot \ mathbf {A} \ cdot \ mathbf {V} \ right) [/ math] debe cambiar el operador original al nuevo espacio. Pero espera. Por la definición de la ecuación de valores propios dada en el primer párrafo, considerando todos los vectores propios a la vez en lugar de individualmente,
[math] \ mathbf {A} \ cdot \ mathbf {V} = \ lambda \ mathbf {V} [/ math]
o, [math] \ mathbf {V} ^ {- 1} \ mathbf {A} \ cdot \ mathbf {V} = \ mathbf {V} ^ {- 1} \ lambda \ mathbf {V} [/ math]
¡Pero [math] \ lambda [/ math] es una matriz diagonal! Entonces,
[math] \ mathbf {V} ^ {- 1} \ mathbf {A} \ cdot \ mathbf {V} = \ lambda \ mathbf {V} ^ {- 1} \ mathbf {V} [/ math],
o, [math] \ mathbf {V} ^ {- 1} \ mathbf {A} \ cdot \ mathbf {V} = \ lambda \ mathbf {I} [/ math].
La siguiente figura muestra el proceso de cambio de base: –
Por lo tanto, el operador de transformación en la nueva base es extremadamente simple y desacoplado. Finalmente, calculando esto para nuestro ejemplo,
[math] \ mathbf {V} ^ {- 1} \ mathbf {A} \ cdot \ mathbf {V} = \ begin {bmatrix} 3.3166 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & – 3.3166 \\ \ end {bmatrix} [/ math]
que como se esperaba es una matriz de transformación mucho más simple que en la base original.
Finalmente, al trazar nuestra antigua función paramétrica utilizando nuestra nueva base, vemos que la función transformada es solo una versión a escala desplazada del símbolo original de Nike.
Esto, especialmente la última parte llamada la transformación de Karhunen-Loève es la columna vertebral de los sistemas lineales. Lo creas o no, este es el punto de partida para una gran cantidad de temas como el filtrado del espacio de estado, el control, la compresión de imágenes, las funciones de onda y mucho más. Feliz explorando.