¿Qué representan los valores propios y los vectores propios intuitivamente? ¿Cuál es su significado?

En primer lugar, ayuda a restringir la explicación a un caso muy básico: una matriz de 2 × 2 (llamémosla A ) que se multiplica a la derecha por un vector de columna 2 × 1 distinto de cero (llamémoslo v ). Por lo tanto, podemos pensar en v como una flecha que apunta desde el origen en R2 hacia R2, es decir, v especifica una ubicación en el plano. Cuando multiplicas A por v , obtienes otro vector en R2, otra ubicación. Entonces, la multiplicación por una matriz de 2 × 2, en otras palabras, hace que los puntos en el plano cambien sus ubicaciones de cierta manera. Técnicamente, llamamos a esto una transformación lineal, pero esa palabrería no es importante para la explicación.

Cuando tenemos tal cambio generalizado en R2, es útil saber no solo cómo cambian los vectores, sino qué vectores esencialmente no cambian con respecto a sus ubicaciones. Al igual que en la vida, cuando experimentas un cambio, es útil tener puntos de referencia fijos para guiarte. Entonces podemos preguntar, ¿qué vectores en R2 permanecen “esencialmente sin cambios” en sus ubicaciones cuando los multiplicamos por A ?

Esos vectores, una vez que definamos “esencialmente sin cambios”, serán lo que llamaremos vectores propios. Puede ser suficiente saber esto, intuitivamente. Pero sigue leyendo para obtener una descripción más precisa.

No siempre podemos dejar los vectores en R2 totalmente fijos, pero a menudo tenemos situaciones en las que el vector inicial v y el vector transformado A v terminan apuntando en la misma dirección o exactamente en la dirección opuesta, es decir, v y A v se encuentran en la misma línea . Esto es lo que queremos decir con “esencialmente sin cambios con respecto a la ubicación”: que vy el vector transformado A v se encuentran en la misma línea en R2. Se dice que cualquier vector que satisfaga esta descripción es un vector propio para A.

En otras palabras: una forma intuitiva de describir vectores propios es que son vectores que permanecen apuntando a lo largo de la misma línea que señalaron originalmente después de ser transformados por la matriz A. Esta noción puede generalizarse para espacios de dimensiones superiores si reemplaza “línea” por “subespacio”. (Por ejemplo, algunos vectores propios para matrices 3 × 3 podrían moverse con mayor libertad pero nunca abandonar el plano en el que se sentaron originalmente).

Ahora, un poco más de juego revelará que, una vez que un vector se establece como un vector propio para A , puede no estar totalmente fijo (es decir, A v = v ), pero lo más que le puede pasar es la multiplicación por un escalar, es decir [math] A \ mathbf {v} = \ lambda \ mathbf {v} [/ math] para algunos escalares [math] \ lambda [/ math]. Esa [matemática] \ lambda [/ matemática] se llama un valor propio para A. Con un poco más de juego, descubres que si v es un vector propio para A con valor propio [math] \ lambda [/ math], entonces cualquier múltiplo escalar de v también es un vector propio para A con el mismo valor propio, [math] \ lambda [/ math]. Hay algunos enfoques intuitivos para explicar esto, pero el álgebra simple funciona mejor.

Para resumir una historia larga: la forma más intuitiva de explicar cosas propias es usar geometría simple. Use muchas imágenes y mantenga la notación al mínimo.

He encontrado varias formas de enseñarlo a lo largo de los años. Las explicaciones de Leif Walsh y Ben Cunningham son buenas maneras de pensar, por lo que solo voy a opinar sobre mi +1 y mi comentario adicional.

El que he encontrado que resuena con los estudiantes es volver al viejo elipsoide. El conjunto de problemas es tomar un montón de puntos de datos y encontrar el elipsoide que mejor se ajuste a los datos.

El primer vector propio será el eje semi-mayor y el valor es la magnitud y el segundo es el eje semi-menor. A partir de ahí, es fácil explicar cómo llevarlo hacia adelante para n dimensiones.

También he descubierto que las personas responden bastante bien a la noción de “varianza explicada”. Usualmente lo explico a lo largo del siguiente camino. Supongamos que tiene puntos en n dimensiones. ¿Cuál sería el primer vector que debería usar para describir los puntos y minimizar el error (en un sentido L2)? Cuál sería el segundo, etc. Estos son los correspondientes vectores / valores propios. Se pueden encontrar buenas explicaciones de esto en el análisis de componentes principales (PCA para personas estadísticas), funciones ortogonales empíricas (EOF para meteorólogos).

Una de las explicaciones de proyección (mapeo matricial) que más me gusta está en Recetas numéricas. El otro que realmente me gusta está en el libro de Gilbert Strang.

Me gustaría saber si alguien tiene una buena explicación para el resumen generalizado de (álgebra generalizada). La única forma en que sé cómo enseñar esto es desde los primeros principios.

Los vectores propios y los valores propios están relacionados con la pregunta “dado un mapa lineal, ¿qué vectores mantienen la misma dirección?”

Dada alguna transformación lineal [matemática] T [/ matemática], si tiene vectores propios [matemática] v_1, v_2, \ ldots, v_n [/ matemática] y valores propios (estos son escalares) [matemática] \ lambda_1, \ lambda_2, \ ldots , \ lambda_n [/ math], luego se mantienen las identidades [math] Tv_i = \ lambda_i v_i [/ ​​math].

Lo que esto significa es que, cuando aplica el mapa [math] T [/ math] a todo el espacio, cualquier vector en la misma línea a través del origen que cualquiera de los vectores propios simplemente se escala en esa dirección, por el valor propio correspondiente: ellos retienen su dirección. Todos los vectores que no están en una línea a través de un vector propio se giran de alguna manera y terminan orientados en una dirección diferente.

Probemos algunos ejemplos:

  • Suponga que [math] T [/ math] es solo una función de escala, digamos por 2. Entonces [math] T [/ math] llevará cada vector en el espacio al vector dos veces más largo, en la misma dirección. Por lo tanto, cada vector es un vector propio, con un valor propio 2.
  • Suponga que [math] T [/ math] es una rotación no trivial (digamos en 3 dimensiones por simplicidad). Entonces, todos los vectores, excepto los del eje de rotación, deben cambiar de dirección, por lo que no son vectores propios. Pero los vectores en el eje de rotación no cambian, por lo que todos son vectores propios, con valor propio 1.
  • Suponga que [math] T [/ math] refleja el espacio a través de algún plano que contiene el origen. Cada vector dentro de ese plano será un vector propio, con valor propio 1, los vectores perpendiculares al plano en el origen serán vectores propios con valor propio -1, y esos serán los únicos vectores propios. ¿Puedes ver por qué?
  • ¿Puedes descubrir qué sucede si compones algunos de los mapas anteriores?

(Descargo de responsabilidad: no soy un experto en álgebra lineal. Estoy escribiendo esto, solo para compartir mi comprensión de cómo estas cosas a menudo se aplican en otros lugares, y también en el mundo real).

Arun Iyer ya ha explicado muy bien la importancia matemática de los valores propios y los vectores propios, por lo que no repetiré eso (y no puedo).

Lo fascinante es su aplicación en el mundo real en redes sociales, económicas o basadas en Internet , y agentes conectados en un sistema. Las redes aquí no necesariamente significan el aspecto electrónico / de comunicación, solo la forma en que las personas o el contenido web están vinculados entre sí.

Piense en una “red” como una matriz NxN, que tiene información sobre cómo N personas (o N páginas o N países …) están conectadas entre sí.

Adjacency Matrix es una matriz NxN, digamos que se parece a esto. Las personas que no están conectadas entre sí tienen A [i] [j] = 0, las personas con relaciones débiles tienen A [i] [j] = 0.1, las personas con vínculos medios tienen A [i] [j] = 0.4,
las personas con fuertes lazos tienen A [i] [j] = 0.6
1—2—-3—-4
1—0.0 0.1 0.4 0.6
2—0,1 0,0 0,4 0,0
3—0,4 0,4 ​​0,0 0,1
4—0,6 0,0 0,1 0,0

1 y 2 están débilmente conectados, 1 y 3 tienen lazos medios, 1 y 4 tienen lazos fuertes. Este es solo un ejemplo rápido para darle una idea rápida. Estas matrices no siempre pueden ser simétricas tampoco.

Las personas con “mayor centralidad de vectores propios” son personas que están mejor conectadas entre sí. Esto tiene en cuenta, no solo cuántas personas conoce la persona, sino también a quién conoce. Si una persona está conectada a unas pocas personas bien conectadas, eso podría traerle más centralidad que una persona conectada a muchas personas que no están tan bien conectadas.

Redes sociales y economicas

Página sobre Mit

El informe anterior es un estudio de caso, basado en un experimento en la zona rural de Karnataka (India) sobre cómo se difunde la microfinanciación. Las microfinanzas implican una pequeña cantidad de capital; se usa para ayudar a las personas a establecer negocios pequeños y muy pequeños; y potencialmente puede sacar a mucha gente de la pobreza. Se descubrió que cuando se inyectan las microfinanzas presentándolas a personas que tienen una centralidad de vector propio más alta, se propaga y difunde mucho más rápidamente (y hace mucho más bien). En el entorno rural donde se llevó a cabo este experimento, esta centralidad de vector propio será más alta para alguien como el sacerdote de un templo o un jefe de comunidad local, o la persona que dirige el órgano de gobierno local.

De manera similar, si un producto necesita ser publicitado, si se presenta a personas “mejor conectadas” con mayor centralidad de vectores propios , es probable que se adopte más rápido.

Al llegar a Internet, si los sitios web de renombre comienzan a vincularse a un sitio web en particular X, es probable que ese sitio web aumente y comience a aparecer en las primeras páginas o resulte cuando se realiza una consulta de búsqueda. Esto se debe a que X se identifica gradualmente como un sitio web que tiene una alta centralidad de vector propio.

Digamos que hay 5 personas en una red:

A B C D E
Deje R () denotar sus “rangos o centralidad” de algún tipo.

Si A sabe B, C, D, E
B sabe solo D, A
E solo sabe C, A

Sus clasificaciones y relaciones se verán como algo por el estilo.
Supongamos que k1 … kn indica algún tipo de fortaleza de las relaciones en la “Matriz de adyacencia”.

Esta es una representación * muy * simplificada, solo para darle una idea intuitiva de cómo se aplican estos conceptos de álgebra lineal.

R (A) = k1 * R (B) + k2 * R (C) + k3 * R (D) + k4 * R (E)
R (B) = k5 * R (D) + k6 * R (A)
R (E) = k7 * R (A) + k8 * R (C)

Tenemos relaciones recursivas de estilo por aquí.

Lo que tenemos aquí es un sistema lineal de ecuaciones, que se resolverá mediante algún proceso iterativo; y finalmente R (A) … R (E) puede normalizarse en alguna escala.

El vector de rangos (importancia social, rango de página, etc.) es el vector propio dominante del Adj. Matriz.

Por lo tanto, no solo tiene en cuenta cuántas personas conoce una persona, sino también qué tan bien conectadas están las personas que conoce, y también se expande aún más en sus redes (recursivamente).

Análisis de componentes principales y reducción de dimensionalidad

Digamos que está haciendo un “análisis de regresión” y tiene muchas características y columnas. Termina con un número inmanejable de dimensiones y necesita reducir las dimensiones. Verá, puede crear una nueva característica que es una especie de suma ponderada de varias características existentes, sin crear muchos problemas. Esto sucede en el Análisis de componentes principales, que también se usa bastante en estadística y aprendizaje automático, y se basa en los vectores propios y los valores propios (cuya magnitud es indicativa de las fortalezas relativas de las características).

Estrictamente hablando matemáticamente, dado un espacio vectorial [matemático] V [/ matemático] y un operador lineal [matemático] A [/ matemático] que actúa en ese espacio vectorial, los vectores propios representan esos puntos en [matemático] V [/ matemático] cuyo la dirección permanece sin cambios después de la acción del operador. Esto es esencialmente lo que significa [matemáticas] A (x) = \ lambda x [/ matemáticas], es decir, cuando aplico [matemáticas] A [/ matemáticas] a [matemáticas] x [/ matemáticas], que es el vector propio, obtengo otro vector cuya dirección es la misma que [matemática] x [/ matemática] pero cuya magnitud es escalada por algún escalar que llamamos valor propio.

En el aprendizaje automático, los vectores propios aparecen en diferentes lugares y a veces tienen un significado muy directo y, a veces, tiene más que ver con la intuición.

1] Cadenas de Markov y caminatas aleatorias
Dada una cadena de Markov de estado-espacio-tiempo-finita homogénea con una matriz de probabilidad de transición [matemática] P [/ matemática], encontrar una distribución estacionaria de esta cadena se reduce a resolver la siguiente ecuación [matemática] Px = x [/ matemática]. Esto es equivalente a encontrar el vector propio de [matemáticas] P [/ matemáticas] correspondiente al valor propio 1. Uno puede pensar en el algoritmo PageRank como una aplicación de Cadenas de Markov y los valores de rango de página son en realidad las entradas del vector propio dominante de la matriz de transición. En estos dos casos, los vectores propios (que también, uno de los vectores propios) representan cosas diferentes. En un caso, representa una distribución estacionaria, mientras que en el otro caso, representa valores de rango de página. Entonces, tienen significados muy directos.

2] Reducción de dimensionalidad
Considere un espacio vectorial de características [matemáticas] X [/ matemáticas] donde residen sus vectores de características. Supongamos que [math] X [/ math] es un espacio de Hilbert. Ahora, si [math] A [/ math] es un operador lineal compacto autoadjunto (no se preocupe por lo que significa por el momento, solo que [math] A [/ math] es una matriz que satisface ciertas propiedades), entonces los vectores propios de [matemática] A [/ matemática] también forman la base ortonormal de [matemática] X [/ matemática] según el teorema espectral. Si [math] (\ lambda_1, u_1), \ ldots, (\ lambda_n, u_n) [/ math] son ​​los pares propios (suponiendo un espacio de hilbert dimensional finito), entonces cualquier punto [math] x \ in X [/ math] puede se escribirá en el espacio transformado como [math] A (x) = \ lambda_1 \ alpha ^ x_1u_1 + \ ldots + \ lambda_n \ alpha ^ x_nu_n [/ math]. En esencia, si representamos [matemáticas] A (x) [/ matemáticas] usando los vectores propios como base, entonces pueden escribirse como [matemáticas] (\ lambda_1 \ alpha ^ x_1, \ ldots, \ lambda_n \ alpha ^ x_n) [/matemáticas]. El superíndice x indica que los alfas dependen de x, pero también resalta que las lambdas son independientes de x. Ahora, si el operador lineal [matemática] A [/ matemática] es tal que muchos de los valores propios son pequeños y cercanos a cero, entonces en la representación de [matemática] A (x) [/ matemática] dada usando el Los vectores propios como base, prácticamente podemos eliminar todas aquellas dimensiones correspondientes a los cuales los valores propios son cero. Esto nos da la reducción de dimensionalidad. La pregunta se reduce a cómo elegir el operador lineal [matemática] A [/ matemática]? El análisis de componentes principales le dice que elija la matriz de covarianza. En weka, encontrarás que usan la matriz de correlación. Entonces, en la reducción de dimensionalidad, los vectores propios corresponden a una base donde podemos obtener representaciones dispersas para nuestros puntos. Los valores propios absolutos significan en cierto sentido la importancia de una dimensión particular.

3] Laplaciano de la gráfica
Una matriz gráfica laplaciana es un operador discreto de Laplace. Sin embargo, este operador aparece en varios lugares. Uno puede observarlo en la recuperación de información donde las personas han modificado el algoritmo de rango de página usando el gráfico laplaciano o en la clasificación donde aparece cuando se usa la regularización múltiple. Sin embargo, al menos para mí no está del todo claro qué vectores propios y valores propios de la gráfica laplaciana realmente representan en estos casos. Sin embargo, sé de al menos un caso en el que los vectores propios de un gráfico laplaciano se utilizan como base para representar funciones sobre múltiples. Esto aparece en el trabajo de Proto-value Functions Group para el aprendizaje por refuerzo.

Como puede ver, matemáticamente los vectores propios tienen un significado muy fijo y luego hay una gran cantidad de propiedades que uno puede estudiar sobre ellos. Estas ideas se desarrollaron esencialmente desde la perspectiva de resolver ecuaciones diferenciales lineales cuyas soluciones se escriben realmente en términos de los vectores propios del operador diferencial correspondiente. Sin embargo, en el aprendizaje automático, los vectores propios han tomado varios significados, mientras que las matemáticas subyacentes siguen siendo las mismas.

Explicaré un poco la respuesta de DJ Patil con algunos ejemplos.

1. Suponga que tiene una matriz simétrica real M. Entonces M transforma la esfera unitaria [matemática] x ^ T x = 1 [/ matemática] en un elipsoide donde:

  • Los vectores propios de M apuntan en la misma dirección que los ejes del elipsoide
  • Los valores propios de M al cuadrado le dan la longitud de cada radio

[Asumí que M era real y simétrica, por lo que tiene vectores y valores propios reales.]

2. Suponga que tiene un montón de puntos de datos centrados en el origen. Pegue cada punto de datos en la columna de una matriz M. Luego, los vectores propios de la matriz * covarianza * [matemática] M ^ TM [/ matemática] le indican la forma de los datos: el vector propio con el mayor valor propio le dice el “primer principal componente “de los datos, es decir, la dirección en la que los puntos de datos tienen la varianza máxima /” información máxima “; el vector propio con el segundo valor propio más grande le indica el segundo componente principal, que es la dirección entre todas las direcciones ortogonales al primer componente principal que maximiza la varianza; y así. Además, los valores propios le indican la varianza a lo largo de cada dirección.

Esta imagen puede ayudar:
http://en.wikipedia.org/wiki/Fil
En la imagen, el vector que apunta al noreste es el primer componente principal / vector propio de la matriz de covarianza, y el otro vector es el segundo componente principal / vector propio.

3. Suponga que su matriz M es una matriz de calificaciones, digamos donde la entrada en la fila i columna j le dice cuánto usuario me gustó la película j. Luego, los vectores propios de [matemática] MM ^ T [/ matemática] y [matemática] M ^ TM [/ matemática] descomponen las clasificaciones en combinaciones lineales de características de películas de usuario.

Es decir, los vectores propios [matemáticos] MM ^ T [/ matemáticas] corresponden a características que explican las preferencias del usuario (por ejemplo, un vector propio podría corresponder a películas de “terror”, y el componente i-ésimo de este vector propio le dirá cuánto usuario i le gustan las películas de terror), y los valores propios le dicen lo importante que es cada característica. Del mismo modo, los vectores propios de [math] M ^ TM [/ math] corresponden a características que explican las películas (de nuevo, un vector propio podría ser un vector propio de terror, y el componente i-ésimo de este vector propio diría cuán horrible es la película).

Suponiendo que sepa cómo calcular los valores propios y los vectores propios de una matriz dada. Trataré de explicar la intuición detrás
Los vectores propios.

Por ejemplo, tiene una matriz de puntos de datos en el espacio n-dimensional donde n es, por ejemplo, un valor muy alto. (Intenta imaginar una dispersión
de puntos agrupados sin correlación entre ellos). Entonces sus puntos de datos o sus observaciones son altamente dimensionales. Cuando ese sea el caso, es imperativo que haya algún tipo de ruido en sus datos. Si desea reducir este ruido, puede proyectar sus datos en un nuevo espacio que minimice el ruido.

Este espacio se llama espacio propio y los vectores o los ejes de este espacio se denominan vectores propios y lo que determina la longitud de los ejes son los valores propios.

Entonces, cuando proyecta su matriz original en este espacio, los puntos de datos de su matriz original tienden a unirse / alinearse con los ejes de este espacio. De este modo, reduce el ruido y le brinda los componentes principales en sus datos que están separados ortogonalmente.

Tomemos un lenguaje laico. Considere a las personas que viven en una ciudad y le gustaría saber quién, entre esas personas, como el jazz pop rock indie, etc. Imagine a las personas en esta ciudad como los puntos de datos. Imagina que eres una persona muy rica y te gusta gastar dinero. Un buen día tienes la idea de llamar a músicos populares que son los mejores en esos tipos de música mencionados. Una vez que llegan a tu ciudad, lo anuncias a la gente y conduces estos eventos musicales en lugares separados por grandes distancias en 4 cuadrantes diferentes y adivinas qué sucederá. Las personas que gustan de un tipo de música irán a ese evento. La idea es que los puntos de datos (personas) se alineen / atraigan a lo que les gusta. Esto facilita la agrupación de personas en grupos.

En el ejemplo anterior, la gente en la ciudad es la matriz original. Los músicos son los vectores propios y el día del evento las personas (matriz original) fueron proyectadas en el espacio creado en la ciudad por los músicos. (El espacio propio)

De esta manera, las personas similares se agruparon.

Como dijo Ben Cunningham, los vectores propios son el alma de una matriz.

  1. Imagine que se aplica una asignación lineal una y otra vez a un espacio completo. Una cizalla aplicada repetidamente a [math] \ mathbb {R} ^ 2 [/ math], por ejemplo.
  2. Los vectores propios de esa transformación serán los vectores que permanecen apuntando en la misma dirección a medida que se repite este proceso.
    (en lo anterior, [math] \ scriptstyle {\ mathbf {eig} _1 \, = \, \ vec {\ mathbf {blue}} \, = \, \ vec {(1 \; 0)}} [/ math ] y [math] \ scriptstyle {\ mathbf {eig} _2 \, = \, \ vec {0}} [/ math] .)
  3. El valor propio dice cómo cambia o se escala el tamaño del vector propio en cada aplicación de la transformación. Entonces, si [math] \ scriptstyle \ lambda_i \, = \, 1 [/ math] entonces [math] \ scriptstyle | \ mathbf {eig} _i | [/ math] permanece igual. Si [math] \ scriptstyle \ lambda_i \, = \, -2 [/ math] entonces [math] \ scriptstyle \ mathbf {eig} _i [/ ​​math] se duplica en longitud e invierte la dirección tras la transformación.

Los vectores propios y los valores propios caracterizan completamente y simplemente la matriz o la transformación lineal.

Es bueno agregar que [matemáticas] \ scriptstyle \ prod_i \ lambda_i = \ det | \ mathrm {matriz} | [/ math] y [math] \ scriptstyle \ sum_i \ lambda_i = \ mathrm {trace} (\ mathrm {matrix}) [/ math].

FUENTE: http://tumblr.com/xp11lyx1ht

    Varios otros respondedores han presentado las aplicaciones interesantes para sistemas dinámicos, estadísticas, mecánica cuántica y PageRank. Hay muchos más, como helicópteros, teorías macroeconómicas y Photoshop. ¡El álgebra lineal está en todas partes!

    Comprender el significado de los valores propios y los vectores propios es importante para cualquier campo que use matrices. Esto incluiría casi toda la ingeniería de control, estadísticas, aprendizaje automático, gráficos por computadora y campos relacionados.

    Una matriz en sí misma puede representar varios conceptos y, por lo tanto, el significado del “mundo real” de un vector propio cambia según el tipo de análisis. Sin embargo, como muchos conceptos abstractos, una vez que veas suficientes ejemplos, creo que el mapeo de conceptos abstractos a conceptos del mundo real es algo natural. Un par de casos de uso del mundo real de vectores propios y valores propios son:

    1. Estadística multivariante: uso de vectores propios de la matriz de covarianza para identificar la orientación de un gran conjunto de datos. Un científico de datos puede observar los valores propios y los vectores propios y reconocer qué componentes de una tabla de datos grande son más importantes que otros.

    2. Ingeniería de control y sistemas dinámicos: uso de vectores propios y valores para determinar la estabilidad y el comportamiento de un sistema lineal, es decir, dx / dt = A * x. Un ingeniero de control puede observar los valores propios y los vectores propios para comprender qué tan rápido se estabilizaría un sistema y si el sistema oscilaría.

    Como puede ver, los ejemplos son bastante diferentes en cuanto a sus casos de uso del mundo real. El significado de una matriz es diferente en cada caso: en el primer ejemplo, la matriz representa la variabilidad en algún conjunto de datos; en el segundo caso, la matriz representa cómo las variables en una ecuación diferencial se afectan entre sí.

    Los gráficos por computadora son otro caso de uso, donde las matrices se usan para representar transformaciones. Para este caso de uso en particular, el significado de un valor propio podría ser un poco más intuitivo debido al contexto visual.

    Para comprender qué valores propios son, primero debe comprender qué son las matrices.
    Una matriz en la forma más simple de definir cosas, es una transformación. Transforma un sistema de coordenadas a otro.

    Entonces, ahora cada vector en nuestro dominio se transforma en otro vector. Ahora un EIGENVECTOR es uno de esos vectores que conserva su dirección (el sentido puede cambiar). Entonces tienes un vector que, en las coordenadas transformadas y originales, apunta en la misma dirección. La magnitud de la misma puede variar. Ahora esta escala de la magnitud son los valores propios. si 2 unidades de longitud del vector propio se convirtieron en 5 unidades en el transformado, entonces el valor propio es 2,5.

    Tiene usos tremendos! Es alucinante. Es soberbio.

    Puede determinar la estabilidad de un sistema a partir de sus valores propios. También el análisis de errores se realiza con esto.
    Luego, para un sistema general de n grados de libertad, puede determinar sus frecuencias naturales (valores propios) y sus formas de modo natural (vectores propios).
    Puedo seguir yendo, ¡pero están en el corazón de todo!

    Básicamente es un sistema de coordenadas (la base formada por los vectores propios), en el que si ve un sistema, obtendrá las soluciones “más simples”, y su trabajo se reducirá, ¡como un montón!

    Espero haber podido hacerte interesar en este tema por lo menos, incluso si no pudiera explicarlo todo (¡porque hay demasiado!).

    Trato con esto todo el tiempo en mi trabajo de consultoría. Debe comprender cómo su audiencia percibe qué es un vector y una matriz y cómo es relevante para su trabajo. Es decir, póngalo en el contexto de algo que usan todos los días y con el que se sienten muy cómodos.

    Por ejemplo, considere explicar el modelo de PageRank de Google, que es solo el límite de un proceso de salto de Markov en el gráfico web. La mayoría de las personas entienden google y entienden el concepto de páginas web que se vinculan entre sí y las personas que navegan por la web, y han oído hablar de Page Rank.

    Una matriz es algo que puede aplicar a un vector para obtener otro vector, como la forma en que simula un proceso de salto de Markov en un gráfico.

    Comience con el vector [1,0,0,0,0….], Que es [Google, ……. [

    Luego, puede explicar los vectores propios y los vectores propios aplicando el método Power. Aplica la matriz una y otra vez, simulando pasos en el tiempo. El vector propio principal es el límite de este proceso, y el valor propio es solo un factor de peso.

    Algunas personas navegan por la web, así que solo explique que solo está simulando hacia dónde es más probable que una persona salte al siguiente

    Google -> YouTube
    Google -> Amazon
    Google -> AdultFriendFinder

    etc.

    Aún mejor si han usado un sitio con muchos enlaces internos como LinkedIn, lo que le permite explorar personas dentro del sitio y también saltar a artículos web fuera del sitio.

    El límite de este proceso de saltar conduce a las páginas web más probables a las que saltarán todos los usuarios y, por lo tanto, predice la popularidad de la mayoría de los dominios más comunes en la web. Es decir, el vector propio principal es la distribución de probabilidad en estado estacionario del proceso de Markov

    Ahora, si se trata de un buen estudiante de matemáticas, yo tomaría un enfoque totalmente diferente. Los valores propios son simplemente las raíces del polinomio característico de la matriz. Dele al alumno algunas matrices muy pequeñas y pídales que trabajen en los polinomios y resuelvan las raíces.

    Un vector propio es un tipo especial de vector que solo tiene sentido cuando tienes una transformación.

    Trataré de hacerlo lo más simple posible, así que tengan paciencia conmigo. Como sabes, un vector es simplemente una representación de dirección y una magnitud.

    Ahora imagine una rotonda o tráfico circular con muchas rutas entrantes y salientes diferentes. Digamos que cada auto entrante debe seguir una regla específica, que es específica de esta rotonda, para decidir qué salida tomar.

    Si piensa en la velocidad y la dirección de los automóviles como su vector [matemática] x [/ matemática], entonces una forma de pensar en una matriz, [matemática] A [/ matemática] es precisamente lo que la regla indirecta está haciendo en este caso es decir, tomar cada vector, transformarlo y escupir otro vector, o para permanecer fiel al ejemplo, enviar cada auto a su salida.

    Dependiendo de la regla de transformación, puede ver que algún automóvil, o de hecho todos los automóviles en un escenario interesante, continuará en su ruta de dirección original. Y estos autos – vectores – que permanecen en su curso original bajo la transformación [matemáticas] A [/ matemáticas] se denominan vectores propios.

    o algebraicamente [matemáticas] A x = \ lambda x [/ matemáticas]

    El múltiplo adicional no es realmente material, lo que realmente importa es que la transformación tiene algunas invariantes (cuando dejas de preocuparte por la magnitud). (bueno, en realidad, el lambda es muy importante en sí mismo como contraparte del vector propio; sorprendentemente, se llama el valor propio del vector propio).

    Lo realmente genial de los vectores propios es que cuando puede obtenerlos todos ellos caracterizan / definen / determinan la raíz de lo que está haciendo la transformación.

    El concepto es realmente útil en muchas partes de las ciencias y la tecnología. De hecho, cada vez que puede definir un proceso de transformación como un cambio de un estado a otro dentro del mismo dominio de posibilidades, entonces potencialmente tiene una matriz en su mano (y con suerte, una lo suficientemente agradable que puede caracterizarse por vectores propios / valores propios).

    Un vector Eigen es un vector cuya dirección permanece sin cambios cuando se le aplica una transformación lineal.

    Considere la siguiente imagen en la que se muestran tres vectores. El cuadrado verde solo se dibuja para ilustrar la transformación lineal que se aplica a cada uno de estos tres vectores.

    Los vectores propios (rojo) no cambian de dirección cuando se les aplica una transformación lineal (por ejemplo, escala). Otros vectores (amarillo) sí.

    La transformación en este caso es una escala simple con factor 2 en la dirección horizontal y factor 0.5 en la dirección vertical, de modo que la matriz de transformación A se define como:

    Un vector v = (x, y) se escala aplicando esta transformación como

    La figura anterior muestra que la dirección de algunos vectores (que se muestra en rojo) no se ve afectada por esta transformación lineal. Estos vectores se denominan vectores propios de la transformación y definen de forma única la matriz cuadrada A. Esta relación determinista única es exactamente la razón por la que esos vectores se denominan ‘vectores propios’ (Eigen significa ‘específico’ en alemán).

    En general, el vector propio v de una matriz A es el vector para el cual se cumple lo siguiente:

    donde λ es un valor escalar llamado ‘ valor propio ‘. Esto significa que la transformación lineal A en el vector v está completamente definida por λ

    Podemos reescribir la ecuación

    donde I es la matriz de identidad de las mismas dimensiones que A

    Sin embargo, suponiendo que v no es el vector nulo, ecuación; solo se puede definir si

    no es invertible Si una matriz cuadrada no es invertible, eso significa que su Determinante debe ser igual a cero. Por lo tanto, para encontrar los vectores propios de A, simplemente tenemos que resolver la siguiente ecuación:

    Para más consulta:

    Valores propios y vectores propios – Wikipedia

    Eigenvalue – de Wolfram MathWorld

    Valores propios y vectores propios

    Valores propios y vectores propios: una introducción

    ¿Cuál es la importancia de los valores propios / vectores propios?

    http://math.mit.edu/~gs/linearal

    Esta es la forma en que le explicaría a un niño de 11 años.

    tldr: – Supongamos que si le muestro un color que nunca ha visto en la vida (digamos blanco: P) y le pido que lo reproduzca utilizando los colores que tiene (¿RGB?), ¿qué haría? probará diferentes combinaciones hasta que encuentre esa “mezcla correcta” de RGB. Ratio = valor propio. RGB = vectores propios (@Matemáticas mayores, perdóname). Entonces, aunque no tenía idea de qué es el blanco (un fenómeno complejo, es decir, una operación compleja en un vector), logró comprenderlo al describirlo como una combinación de cosas simples (vectores con los que se siente cómodo para trabajar) con diferentes amplitudes

    Ejemplo con Batman. Todos sabemos que Bruce Wayne, nacido ‘como’ cualquier otra persona, se convirtió en más que una persona debido a los privilegios / tragedias en su vida. Usé citas para me gusta porque aunque tú y Bruce Wayne fueron más parecidos cuando naciste, todavía no eres el mismo. Ahora te preguntas, si naciste en su lugar, ¿Seguirías el camino de este Bruce Wayne y te convertirías en Batman o seguirías el camino de Jack y te convertirías en ……

    ¿Cómo lo sabes? Matemáticas, AX = B !!

    Digamos que A representa los eventos en la vida de Batman. X: Bruce Wayne. B = Por supuesto Batman. Ahora quieres ponerte en la posición X y verte en lo que te conviertes. Pero esto es complicado. Porque, A – los eventos en la vida de Bruce Wayne son lo suficientemente complicados. Y usted, como persona, tampoco es simple. Entonces, ¿cómo encontrar sus reacciones X a esos eventos, es decir, A? Bueno, simple Delineas tus cualidades individuales en tu humor, empatía, ira, etc., (@ Psicología especializadas, perdóname), y ver si esos eventos, es decir, A aumenta o disminuye cada una de esas cualidades y las combina al final. Aquí tenemos que suponer que los eventos, es decir, A solo pueden aumentar o disminuir esas igualdades pero no cambiarlas en ninguna otra cualidad (la matriz cuando se multiplica con su vector propio solo cambiará la magnitud del vector propio)
    Entonces, AX = A ([matemáticas] c_1 V_1 + c_2 V_2…. [/ Matemáticas])
    = [matemáticas] c_1 A V_1 + c_2 A V_2 …… [/ matemáticas]
    = [matemáticas] c_1 \ lambda_1 V_1 + c_2 \ lambda_2 V_2 …… [/ matemáticas]
    donde V son cualidades, c son constantes, lambdas son constantes (matriz de identidad diagonal multiplicada por constantes). Entonces, ¿qué hubieras sido ? Recuerde que todo esto es posible porque estamos asumiendo el conocimiento de la efectividad de las cualidades (vectores propios) para representar a una persona (vector aleatorio) y el efecto de los eventos (transformación / proceso) en esas cualidades (vectores propios). Y las matrices son cuadradas. si son rectángulos, los hacemos cuadrados (multiplicándolos con sus transposiciones) y llamamos al método Descomposición ortogonal adecuada o Descomposición de valor singular (si no me equivoco).

    De esta manera, puede utilizar todo el concepto propio para simplificar los sistemas complicados en pequeños fragmentos que podemos interpretar fácilmente (como series de Fourier) y ahorrar energía computacional en algunos casos (tendemos a aburrirnos con los caracteres 1D, pero las computadoras adoran las matrices con muchos ceros)

    BONIFICACIÓN: – Los ingenieros usan esta idea para averiguar si los puentes terminarán bailando como Tacoma Narrows (
    ) ¿Cómo? No importa cuán complicado sea un sistema, será perjudicial responder de manera específica a cualquier tipo de impulso, por complicado que sea. Se llama frecuencia resonante en la terminología de vibraciones, que resulta ser un valor propio si dividimos las vibraciones en movimiento en ciertos grados de libertad (vectores propios).

    PD: – Explicaría lo mismo incluso a un doctorado, porque no sé nada más 😀

    La forma más sencilla de comprender los vectores propios y los valores propios es pensar en términos de la transformación de vectores por matrices.

    En términos generales, si toma un componente n, un vector distinto de cero, v , y lo multiplica por una matriz arbitraria de nxn, M , obtendrá un nuevo vector, v ‘ :

    v ‘= Mv .

    En general, el nuevo vector no solo tendrá una longitud diferente a la del vector original, sino que también habrá sido girado , de modo que ya no apuntará en la misma dirección que el vector original.

    Sin embargo, para una matriz dada, si el vector v ‘se encuentra en la misma dirección que el vector v (viendo v como una flecha que apunta desde el origen del sistema de coordenadas a un punto en otro lugar), lo que significa que no ha habido rotación durante la transformación, y solo la longitud de v ‘ es diferente de v , de modo que

    v ‘ = k v

    donde k es un escalar, entonces decimos que v es un vector propio de M , y el multiplicador escalar k es el valor propio asociado con el vector propio v . En este caso especial, luego escribimos

    Mv = k v,

    donde v y k se entiende que no es cero).

    Hay una buena explicación, con ejemplos trabajados, aquí: http://en.wikipedia.org/wiki/Eig

    Los vectores propios y los valores propios son importantes en muchas áreas de las matemáticas y la física, y particularmente en la mecánica cuántica, donde juegan un papel central en la teoría cuántica de la medición .

    En mecánica cuántica, el estado de un sistema cuántico se describe por su función de onda (también llamada función de estado o vector de estado ). Esta función de onda es en realidad un vector en un espacio de Hilbert (un espacio vectorial complejo de dimensiones superiores). Cada observable (atributo medible físicamente) de un sistema cuántico, como su energía, momento o giro, tiene un operador correspondiente, y este operador, en el formalismo matemático convencional, está representado por una matriz, que tendrá varios vectores propios.

    Antes de que se realice una medición de un observable particular en el sistema cuántico, su función de onda será indeterminada y una suma lineal, o superposición , de todos los posibles vectores propios del operador de matriz que representa el observable (estos vectores propios son la unidad ortogonal (es decir, ortonormal) vectores base en el espacio de Hilbert correspondiente).

    En el momento en que se realiza la medición, la función de onda se resuelve, o ‘colapsa’, en uno de los vectores propios, o estados propios , del operador observable, y el valor propio correspondiente representa el valor real que se observará para el observable en cuestión.

    Por lo tanto, el cálculo de vectores propios y valores propios para matrices que representan operadores observables es de importancia central en la mecánica cuántica, ya que estos le indicarán todos los posibles estados físicos de un sistema cuántico, y todos los posibles valores de observables físicos que puede manifestar.

    Más sobre la teoría cuántica de la medición: http://en.wikipedia.org/wiki/Mea

    Más sobre la representación de Hilbert Space de los sistemas cuánticos: http://en.wikipedia.org/wiki/Hil

    No lo escriba en piedra, pero trataré de dar una respuesta que sea poco intuitiva. Imagine un vector en 2-D, digamos 2i + 3j (i y j son vectores unitarios en las direcciones x e y).

    Se puede pensar que este estado está compuesto de combinaciones lineales de dos vectores propios, i y j con sus respectivos valores 2 y 3 análogos a los valores propios correspondientes.

    En la mecánica cuántica, cualquier estado del sistema puede expresarse como una combinación lineal de vectores propios (estados en sí mismos) con las proyecciones en ese estado que sirven como pesos. Cuando hace una observación, observa que el sistema está en uno de los estados propios y el valor observado es el valor propio correspondiente. La misma razón por la cual, antes de la observación, un gato puede estar vivo y muerto (los dos estados ortogonales: vivo y muerto) y después de la observación, el gato está vivo o muerto. 🙂

    Los vectores propios serán ortogonales entre sí al igual que i & j (el producto interno debe ser cero).

    Algunos conceptos de espacios vectoriales, dimensiones y bases serán útiles.

    Creo que realmente quiere decir “¿Qué son los vectores propios intuitivamente?” no “¿Qué son exactamente?” Si puede calcularlos, entonces sabe exactamente lo que son: son [matemáticas] \ vec {x} \ text {tal que} [/ matemáticas] [matemáticas] [\ mathbf {M}] \ cdot \ vec {x } = \ lambda \ cdot \ vec {x}, \ lambda \ in \ mathbf {k} \ text {el campo subyacente}. [/ math]

    La razón por la que nos importa es que las matrices N × N, que tienen entradas N² que catalogan las muchas interacciones entre las variables N⇶N, generalmente pueden reducirse en complejidad. Gram Zeppi llamó a esto la parte fundamental y no obvia del álgebra lineal. (Para los extraños es pura magia.) Los vectores propios son más simples que, sin embargo, resumen, las matrices. (Como todas las factorizaciones matriciales).

    Hay una explicación intuitiva que ve las matrices [matemáticas] 2 \ veces 2 [/ matemáticas] como transformaciones lineales del plano.


    (foto: Flanigan y Kazdan)

    Los vectores propios apuntan en la misma dirección antes y después de la transformación. En pocas palabras: “Las instrucciones para” permanecer igual “.”
    (foto: Wikipedia)

    En la cizalla de Mona Lisa anterior, el vector azul es un vector propio porque su orientación no cambia con la transformación. Podría seguir repitiendo la cizalla de transformación, la cizalladura, la cizalladura, la cizalladura, la cizalladura, la cizalladura y seguiría igual. Esto es importante si está tratando de descubrir qué es estable bajo las repeticiones de una transformación lineal.

    Entonces el vector propio sigue apuntando en la misma dirección. ¿Pero se mantiene la misma longitud? El valor propio asociado a él dice cómo cambia la longitud. Esto se vuelve importante, por ejemplo, en sistemas dinámicos (o sistemas de diffeq), ya que indica el comportamiento de estabilidad.


    foto: Wikipedia

    (El eje vertical aquí es la suma de valores propios. El eje horizontal es el producto de valores propios. Entonces, los puntos en este “plano” podrían haber venido de una matriz de alta dimensión que se repite en un sistema. Es útil saberlo, debido a teoremas, que (1) la suma de las entradas diagonales = la suma de los valores propios, y (2) el producto de las entradas diagonales = el determinante . Por lo tanto, ninguno de los ejes es muy difícil de calcular).


    foto: Elmer Wiens

    Sin valores propios y vectores propios sería difícil hablar cualitativamente sobre sistemas dinámicos lineales como

    [math] \ mathrm {system} _ {\ text {siguiente paso}} \ = \ \ left [\ mathbf {MATRIX} \ right] \ cdot \ mathrm {system} _ {\ text {now}} [/ math ]


    ( … ¿y de qué sirve ser lineal? ¿Qué tan común podría ser eso? Usted pregunta. Bueno, con el cálculo muchas funciones se pueden linealizar, al menos localmente).

    Editar: vea este comentario a continuación para algunas aplicaciones. ¡Responda allí con más!

    Edición 2: Lea la columna de características del AMS, es más / mejores imágenes más una aplicación común. Fuera de los sistemas dinámicos, es útil factorizar matrices para que una complicada se exprese como una secuencia de pasos simples.

    …… la cizalladura es equivalente a …


    rotación + estiramiento

    – Ver más en: Columna de funciones del AMS

    “PLAN DE CORTE para encontrar una solución complicada simplemente resolviendo unos pocos escalares triviales”

    Como se ha señalado, si pongo un Eigenvector en una máquina de transformación, sale una versión a escala de la entrada Eigenvector.

    Dato interesante … esta salida es una versión escalada de entrada, pero ¿cómo es útil?

    Los matemáticos han elaborado un “Plan astuto” para utilizar el hecho interesante de generar soluciones, en caso de que la máquina de transformación, por fortuna, tenga valores y vectores propios. A continuación se ilustra una serie de pasos que muestran el uso de la resolución propia para resolver un problema Esto es seguido por una solución real usando el método tradicional y el método Eigen.

    No se deje engañar por la simple simplicidad de la transformación K, piense en K como una operación complicada, aún así el enfoque anterior funcionará. Lo probaré en un problema un poco más difícil.

    Bueno, por lo general se introducen en el estudio de matrices, donde la multiplicación de un vector [math] \ textbf {v} [/ math] por la matriz M conserva la direccionalidad del vector inicial y el cambio marcado en la longitud del El vector puede verse como el efecto de multiplicar el vector por un escalar particular. Más generalmente,

    Una función [matemática] f: V \ rightarrow U [/ matemática] es una transformación lineal, entonces [matemática] \ textbf {v} [/ matemática] es un vector propio justo cuando [matemática] f (\ textbf {v}) = \ lambda \ textbf {v} [/ math] donde [math] \ lambda [/ math] es un escalador llamado valor propio de [math] f [/ math] en el campo F sobre el cual se definen los espacios vectoriales V, U.

    Entonces, pensamos en los vectores propios como vectores que admiten transformaciones lineales manejables con respecto a las bases apropiadas en un espacio vectorial dado. De manera crucial, estas transformaciones lineales pueden identificarse como el efecto de la multiplicación escalar simple. Esto es particularmente útil ya que la multiplicación escalar es a menudo más fácil y más manejable que las aplicaciones de las funciones requeridas para efectuar transformaciones lineales equivalentes.

    Pero quizás el punto de la pregunta era preguntarse por qué usar este tipo de funciones.

    Para obtener una buena respuesta a esta pregunta, podría ser mejor comenzar con la pregunta ¿por qué estudiar álgebra lineal o para qué sirve el álgebra lineal, específicamente las transformaciones lineales? Entonces, la importancia de las funciones de transformación convenientes y manejables surge de forma espontánea.

    Espero que esto haya sido de alguna ayuda, pero avíseme si su pregunta fue más específica.

    En términos geométricos, los vectores propios y los valores propios representan los componentes principales de un sistema. Un grupo de datos de 2 dimensiones normalmente distribuido formará una elipse girada alrededor de la media del grupo. Un grupo tridimensional formará un elipsoide, y un grupo n-dimensional formará un hiper-elipsoide n-dimensional. Pero volvamos al caso 2D o 3D (más fácil de visualizar). La elipse 2D se centrará en la media muestral. Se rotará sobre ese punto. El eje principal (o mayor) será el eje de la mayor varianza. El vector propio correspondiente al valor propio más grande apuntará a lo largo de ese eje. El valor propio será proporcional a la varianza (será igual a la varianza si su matriz fuera la covarianza de sus datos) El otro vector propio será ortogonal al primero y su valor propio será el eje menor. En principio, el análisis de componentes puede reducir la dimensionalidad de sus datos eliminando los ejes con las variaciones más pequeñas y “aplanando” sus datos sobre los ejes restantes. Nuevamente (3D) geométricamente: encuentre el más pequeño de los tres valores propios; rotar (con una matriz afín) los datos para que ese vector propio se alinee paralelo al eje z; Luego escriba los puntos X e Y ignorando Z. Con datos dimensionales más altos, esto se puede realizar varias veces para decir tomar 9 dimensiones y reducirlas a seis.
    Eigensystems significa diferentes cosas según la aplicación, pero esa fue la mejor descripción “geométrica” ​​que he visto.