¿Cuál es la diferencia entre producto cruzado y producto exterior con la derivación de las fórmulas?

No estoy seguro de responder su pregunta. No puedo ver ninguna explicación complementaria de la pregunta y no sé si es solo mi problema (no puedo encontrarlo) o no hay ningún comentario adicional 🙂

Por lo tanto, intentaré responder la pregunta: ¿Cuál es la diferencia entre producto cruzado y producto exterior?

Producto cruzado como el área del paralelogramo

De hecho, los dos conceptos son similares pero diferentes. El producto cruzado es una operación que toma dos vectores y produce vectores ortogonales a ellos. La longitud de un nuevo vector es igual al área de paralelogramo definida por los dos vectores antiguos.

Este es el paralelogramo adaptado a los dos vectores con el área S. Ahora, el producto cruzado [math] \ mathbf {u} \ times \ mathbf {v} [/ math] es un vector ortogonal al paralelogramo y su longitud es exactamente S:

Entonces, el producto cruzado representa el área orientada del paralelogramo. “Orientado” significa que el área definida por el producto cruzado tiene un signo que depende de la orientación de los vectores u y v . Decimos que el producto cruzado es antisimétrico , es decir, si cambia el orden de los vectores, cambia el signo:

[math] \ mathbf {v} \ times \ mathbf {u} = – \ mathbf {u} \ times \ mathbf {v}. [/ math]

Esta construcción funciona solo en tres dimensiones (ver, sin embargo, Producto cruzado de siete dimensiones). ¿Por qué? Debido a que en dimensiones más altas, dados los dos vectores, la dirección ortogonal no se determina únicamente. Por ejemplo, en 4D hay un plano completo de vectores que son ortogonales a un par de vectores dado.

Observe también que en el producto cruzado hay algunas estructuras ocultas. Es decir, cuando hablamos de ángulos, áreas, longitudes, ortogonalidad, necesitamos el llamado tensor métrico . Esencialmente, el tensor métrico es el producto escalar (producto de puntos, producto interno). Si sabe cuál es el producto escalar, puede medir automáticamente distancias y ángulos. En el plano euclidiano, el producto punto de dos vectores está dado por una relación familiar

[matemáticas] \ mathbf {u} \ cdot \ mathbf {v} = u_1 \, v_1 ​​+ u_2 \, v_2 + u_3 \, v_3. [/ math]

Aunque esta relación es familiar y obvia, es una estructura adicional que debe agregar a su espacio vectorial. El espacio vectorial es solo un conjunto de vectores que se pueden agregar y multiplicar por escalares (es decir, combinados linealmente), pero el espacio vectorial por sí solo no contiene información sobre longitudes y ángulos. El producto escalar se debe proporcionar como ingrediente adicional. Y, de hecho, a veces necesitamos espacio vectorial en el que el producto escalar se define de manera diferente.

Sin embargo, una vez que defina el producto escalar, la longitud (o norma ) de un vector [math] | v = | \ mathbf {v} | [/ math] puede definirse mediante

[math] v = \ sqrt {\ mathbf {v} \ cdot \ mathbf {v}}. [/ math]

El ángulo entre los dos vectores está definido por

[matemáticas] \ cos \ alpha = \ dfrac {\ mathbf {u} \ cdot \ mathbf {v}} {u \, v} [/ math]

donde en el denominador solo tenemos normas de los vectores.

Espacios vectoriales y espacios duales

Ahora, procedamos al producto exterior. Esto es un poco abstracto y generaliza el producto exterior en (al menos) dos direcciones. Funciona en una dimensión arbitraria y opera en objetos más generales que los vectores.

Entonces, tengamos un espacio vectorial arbitrario L de dimensión n . Los elementos de L son, por lo tanto, vectores:

[matemáticas] u, v, w, \ puntos \ en L. [/ matemáticas]

Como L es espacio vectorial, puede combinar linealmente sus elementos, por ejemplo

[matemáticas] c_1 \, u + c_2 \, v \ en L [/ matemáticas]

nuevamente es un vector, si [math] c_1, c_2 [/ math] son ​​números reales y [math] u, v [/ math] son ​​vectores. En otras palabras, en la definición de espacio vectorial está codificado que puede agregar vectores y multiplicarlos con números.

La afirmación de que L tiene dimensión n significa que puede elegir n vectores linealmente independientes, denotarlos [math] e_1, e_2, \ dots e_n [/ math], de modo que cualquier vector [math] v \ en L [/ math] puede ser escrito como una combinación lineal de la forma

[matemáticas] v = v ^ 1 \, e_1 + v ^ 2 \, e_2 + \ dots + v ^ n \, e_n. [/ matemáticas]

Usando el signo de suma, esto es

[matemática] v = \ sum \ limits_ {i = 1} ^ nv ^ i \, e_i [/ ​​math]

y en geometría diferencial lo abreviamos aún más empleando la convención de suma de Einstein (notación de Einstein) como

[matemáticas] v = v ^ i \, e_i, [/ matemáticas]

donde la suma es implícita. El conjunto de vectores [matemáticas] \ {e_i, i = 1,2, \ puntos n \} [/ matemáticas] se denomina base del espacio vectorial L. Y no es único. Puede “mezclar” la base utilizando una matriz regular arbitraria (con determinante distinto de cero) [math] A [/ math], y crear una nueva base mediante

[matemáticas] \ tilde {e} _i = A_i ^ j \, e_j [/ matemáticas].

Para muchos propósitos, es útil estudiar varias asignaciones definidas en L. El mapeo más simple es un covector que es un mapeo

[matemática] \ alpha: L \ mapsto R [/ matemática]

donde R es el conjunto de números reales y [math] \ alpha [/ math] es un codificador. Por lo tanto, covector [math] \ alpha [/ math] es un mapeo que toma un vector [math] v [/ math] y produce un número real:

[matemáticas] \ alpha (v) \ en R. [/ matemáticas]

Para ser más precisos, para que un mapeo [math] \ alpha: L \ mapsto R [/ math] sea un codificador, debe ser lineal , es decir, actúa sobre una combinación lineal de la siguiente manera:

[matemática] \ alpha (c_1 \, v + c_2 \, u) = c_1 \, \ alpha (v) + c_2 \, \ alpha (u). [/ math]

El conjunto de covectores en un espacio vectorial dado L es en sí mismo un espacio vectorial que se denomina espacio dual [matemática] L ^ * [/ matemática].

Dada una base [matemática] e_i [/ ​​matemática] de L, puede definir también una base dual de [matemática] L ^ * [/ matemática]. La base dual se denota por [math] e ^ 1, e ^ 2, \ dots e ^ n [/ math], donde cada [math] e ^ i [/ math] es un codificador (mapeo en L), y se define por el requisito

[matemáticas] e ^ i (e_j) = \ delta ^ i_j, [/ matemáticas]

donde [math] \ delta ^ i_j [/ math] es el símbolo habitual de Kronecker,

[matemáticas] \ delta ^ i_j = \ left \ {\ begin {array} {cl} 0 & \ text {if} ~ i \ neq j, \\ 1 & \ text {if} ~ i = j \ end {array } \ right. [/ math]

Por lo tanto, la base dual satisface, por ejemplo, [matemáticas] e ^ 1 (e_1) = 1, e ^ 1 (e_2) = 0 [/ matemáticas].

Ahora, el espacio dual [matemática] L ^ * [/ matemática] es un espacio vectorial de dimensión [matemática] n [/ matemática], lo mismo que [matemática] L [/ matemática]. Por lo tanto, podemos expandir cualquier covector [math] \ alpha [/ math] en la base dual,

[matemáticas] \ alpha = \ alpha_i \, e ^ i. [/ matemáticas]

Cuando actúa sobre el vector [matemáticas] v = v ^ i \, e_i [/ ​​matemáticas], tenemos

[matemáticas] \ alpha (v) = \ alpha_i e ^ i (v ^ j \, e_j) [/ matemáticas],

y usando la linealidad if [math] \ alpha [/ math],

[matemáticas] \ alpha (v) = \ alpha_i \, v ^ je ^ i (e_j) = \ alpha_i \, v ^ j \ delta ^ i_j = \ alpha_i \, v ^ i. [/ math]

Explícitamente,

[matemáticas] \ alpha (v) = \ alpha_1 \, v ^ 1 + \ alpha_2 \, v ^ 2 + \ dots + \ alpha_n \, v ^ n. [/ math]

Usted ve que esta relación recuerda al producto escalar. Pero no es exactamente el producto escalar, porque el producto escalar se realiza en dos vectores, mientras que aquí tenemos el “producto” de dos objetos diferentes: covector y vector.

Tensor métrico

Este es exactamente el punto donde es necesaria una estructura adicional. Esa estructura faltante se llama tensor métrico , que es un mapeo bilineal simétrico no degenerado en L. Usualmente denotamos el tensor métrico por [math] g [/ math]. Es decir, el tensor métrico [math] g [/ math] es un mapeo que toma dos vectores (elementos de [math] L [/ math]) y produce un número real:

[matemáticas] g (u, v) \ en R. [/ matemáticas]

Vamos a explicar lo que significan los otros adjetivos. Ya sabemos qué es la linealidad, consulte la definición de covector. Ahora [math] g [/ math] tiene dos argumentos y se requiere que sea lineal en ambos, por eso lo llamamos bilineal:

[matemáticas] g (u, c_1 \, v + c_2 \, w) = c_1 \, g (u, v) + c_2 \, g (u, w), [/ math]

[matemáticas] g (c_1 \, u + c_2 \, v, w) = c_1 \, g (u, w) + c_2 \, g (v, w). [/ matemáticas]

Luego, requerimos que [math] g [/ math] sea simétrico, lo que significa

[matemática] g (u, v) = g (v, u) [/ matemática] para cualquier [matemática] u, v \ en L. [/ matemática]

Puede verificar que el producto escalar mencionado al principio cumple ambas propiedades, en notación estándar,

[math] \ mathbf {u} \ cdot \ mathbf {v} = \ mathbf {v} \ cdot \ mathbf {u} [/ math] (simetría)

[math] \ mathbf {u} \ cdot \ left (\ mathbf {v} + c \, \ mathbf {w} \ right) = \ mathbf {u} \ cdot \ mathbf {v} + c \, \ mathbf { u} \ cdot \ mathbf {w} [/ math] (linealidad)

Además, el tensor métrico debe ser no degenerado. Esto significa que si representa [math] g [/ math] por una matriz, esta matriz tiene un determinante distinto de cero y puede invertirse. (También hay una definición independiente de la base de la no degeneración)

¿Qué es una matriz de [matemáticas] g [/ matemáticas]? Simplemente, si elige una base [matemática] e_i [/ ​​matemática] en [matemática] L [/ matemática], doble base [matemática] e ^ i [/ matemática] en [matemática] L ^ * [/ matemática], usted puede actuar con [math] g [/ math] en los vectores de base: [math] g (e_i, e_j). [/ math] Recuerde que, por definición, el tensor métrico [math] g [/ math] toma dos vectores y produce un número real Por lo tanto, con cualquier par [math] (e_i, e_j) [/ math] tenemos un número asociado que denotamos por

[matemáticas] g_ {ij} = g (e_i, e_j). [/ matemáticas]

Estos números [matemática] g_ {ij} [/ matemática] forman [matemática] n \ veces n [/ matemática] matriz

[matemáticas] g_ {ij} = \ begin {pmatrix} g (e_1, e_1) & \ dots & g (e_1, e_n) \\ \ vdots \\ g (e_n, e_1) & \ dots & g (e_n, e_n ) \ end {pmatrix}. [/ math]

La condición de que [math] g [/ math] no esté degenerada simplemente significa que esta matriz es invertible, es decir, existe una matriz [math] g ^ {ij} [/ math] tal que

[matemáticas] g ^ {ij} g_ {jk} = \ delta ^ i_k [/ matemáticas]

que es solo la versión componente de relación para la matriz inversa:

[matemáticas] g ^ {- 1} g = I, [/ matemáticas] donde [matemáticas] I = \ begin {pmatrix} 1 & 0 & 0 & \ dots & 0 \\ 0 & 1 & 0 & \ dots & 0 \\ \ vdots \\ 0 & 0 & 0 & \ dots & 1 \ end {pmatrix} [/ math] es una matriz de identidad.

Como [math] g [/ math] es, por definición, simétrico, también la matriz de [math] g [/ math] satisface [math] g_ {ij} = g_ {ji} [/ math].

Tensores generales

Para recapitular, tenemos el espacio vectorial [matemáticas] L. [/ matemáticas] Su doble [matemáticas] L ^ * [/ matemáticas] es el espacio de los patrones, es decir, los mapeos que toman un vector y producen un número real. Además, tenemos un tensor métrico que toma dos vectores y produce un número real. Por lo tanto, es natural estudiar mapeos generales que toman vectores p , [matemática] p = 1, 2, \ puntos n, [/ matemática] y producen un número real. También exigiremos que estas asignaciones sean multilineales, es decir, lineales en todos sus argumentos.

El tensor covariante de rango p es un mapeo multilineal [math] \ tau [/ math],

[math] \ tau: \ underbrace {L \ times L \ times \ cdots \ times L} _p \ mapsto R [/ math]

Tal tensor toma vectores [math] p [/ math] y produce un número, y es lineal en todos los argumentos p . Simbólicamente, escribimos la condición de linealidad como

[matemáticas] \ tau (\ puntos, u + c \, v, \ puntos) = \ tau (\ puntos, u, \ puntos) + c \ tau (\ puntos, v, \ puntos) [/ matemáticas]

Ahora, podemos definir los componentes de [math] \ tau [/ math] con respecto a la base [math] e_i [/ ​​math] por

[matemáticas] \ tau_ {ij \ dots k} = \ tau (e_i, e_j, \ dots e_k). [/ math]

Podemos ver que el tensor métrico [matemática] g [/ matemática] es un caso especial: es un tensor covariante de 2 rangos que es simétrico y no degenerado. Covector es tensor de rango 1.

Por supuesto, otra generalización natural es el tensor de tipo (q, p) que toma q argumentos de codificador y argumentos de vector p y que es multilineal, es decir, el tensor general (q, p) es un mapeo

[matemáticas] t: \ underbrace {L ^ * \ times L ^ * \ times \ dots L ^ *} _ q \ times L \ times L \ times \ dots \ times L \ mapsto R [/ math]

Los tensores covariantes son aquellos con q = 0, los tensores contravariantes son aquellos con p = 0. El tensor general tiene componentes

[matemáticas] t ^ {i..j} _ {k..l} = t (e ^ i, \ dots e ^ j, e_k, \ dots e_l). [/ math]

De hecho, dado que el espacio dual [matemáticas] L ^ * [/ matemáticas] es en sí mismo un espacio vectorial, podemos considerar su espacio dual, es decir, el espacio [matemáticas] (L ^ *) ^ * [/ matemáticas]. Sin embargo, resulta que el espacio dual-dual [matemáticas] (L ^ *) ^ * [/ matemáticas] es canónicamente isomorfo a [matemáticas] L. [/ matemáticas] No lo discutiré aquí, pero significa que dual-dual space es el mismo espacio que el original [math] L [/ math], por lo que no tenemos que considerarlo. Por lo tanto, es suficiente considerar índices superiores e inferiores, y nada más.

Los tensores de rango (q, p) forman nuevamente un espacio vectorial. Por lo tanto, podemos preguntar, ¿cuál es la base de ese espacio? Definimos el funcionamiento del producto tensorial . Si [math] \ sigma [/ math] y [math] \ tau [/ math] son ​​dos tensores, su producto tensorial es un tensor [math] \ sigma \ otimes \ tau [/ math] definido por

[matemática] (\ sigma \ otimes \ tau) (u, \ dots, v, w, \ dots, z) = \ sigma (u, \ dots, v) \, \ tau (w, \ dots z) [/ matemáticas]

(Para ser más precisos, el producto tensor se define por una factorización con respecto a un ideal del álgebra elegido correctamente, pero olvidémonos de eso). Entonces, cualquier tensor puede expandirse en una base que está formada por el producto tensorial de los vectores base y los patrones:

[matemáticas] \ tau = \ tau ^ {i..j} _ {k..l} e ^ k \ otimes \ dots e ^ l \ otimes e_i \ otimes \ dots \ otimes e_j. [/ math]

Como los tensores forman un espacio vectorial, pueden combinarse linealmente como vectores. Pero la introducción del producto tensor significa agregar otra operación, la multiplicación. Esto convierte el espacio vectorial de los tensores en álgebra, es decir, un conjunto en el que se definen tanto las combinaciones lineales como la multiplicación.

Demasiado para tensores.

Formas

Ahora nos estamos acercando al producto exterior. Hay una subclase de tensores muy, muy (realmente MUY MUY) importante. Estos tensores especiales se denominan formas (o, en el contexto del cálculo en múltiples, formas diferenciales). Nuevamente, el álgebra de formas surge de la factorización del álgebra tensorial covariante con respecto al ideal generado por todos los tensores simétricos, pero esa es otra historia.

Las formas son tensores puramente covariantes que son antisimétricos en todos sus argumentos. A saber, una forma p en el espacio vectorial n-dimensional L es un mapeo que toma argumentos p vectoriales y produce un número real, mientras que si intercambia el orden de cualquiera de los dos argumentos, cambia el signo del resultado:

[matemática] \ alpha (\ dots, u, \ dots, v, \ dots) = – \ alpha (\ dots, v, \ dots, u, \ dots). [/ math]

En el nivel de componentes, esto significa

[matemática] \ alpha _ {\ dots i \ dots j \ dots} = – \ alpha _ {\ dots j \ dots i \ dots} [/ math]

Como una forma es un tensor, podemos tomar forma p y forma q , y hacer un producto tensorial

[matemáticas] \ alpha \ otimes \ beta [/ matemáticas]

Pero, aunque [math] \ alpha [/ math] y [math] \ beta [/ math] son ​​formas, el producto tensorial no es una forma. Tiene índices p + q , pero no será, en general, antisimétrico. Por lo tanto, la operación del producto tensor en los formularios no produce otro formulario, solo produce un tensor general.

Si queremos permanecer en el espacio de formas, tenemos que proyectar el resultado del producto tensorial en el espacio de formas. Esto se logra mediante la operación de antisimetría (pero también vea el delta de Kronecker generalizado). La antisimetrización se define, para los tensores de rango 2, por

[matemáticas] t _ {[ij]} = \ frac {1} {2} \ left (t_ {ij} -t_ {ji} \ right). [/ math]

Ves eso

[matemáticas] t _ {[ij]} = – t _ {[ji]}, [/ matemáticas]

independientemente de si el tensor [matemático] t [/ matemático] es antisimétrico o no. Decimos que antisymmetrize tensor [math] t_ {ij} [/ math] en ambos índices, obteniendo así un tensor que es antisimétrico en ambos índices. Esto puede generalizarse a los tensores de rango arbitrario p por

[matemáticas] t _ {[ij \ dots k]} = \ frac {1} {p!} \ sum_ {P} \ mathrm {sgn} (P) \, t_ {P (1) \ dots P (p)} ,[/matemáticas]

donde la suma pasa por todas las permutaciones de {i, j..k}. [math] \ mathrm {sgn} [/ math] es el signo de permutación. Así, por ejemplo, para p = 3 tenemos

[matemáticas] t _ {[ijk]} = \ frac {1} {3!} \ left [t_ {ijk} + t_ {jki} + t_ {kij} – t_ {jik} – t_ {kji} – t_ {ikj } \ right]. [/ math]

Por lo tanto, teniendo una forma p [matemática] \ alpha [/ matemática] y una forma q [matemática] \ beta [/ matemática], podemos hacer un producto tensor [matemático] \ alpha \ otimes \ beta [/ matemático] , que no es una forma, pero luego podemos antisimetrizar el resultado en todos los índices y obtenemos una forma p + q . La operación resultante se llama producto exterior o producto de cuña :

[matemáticas] (\ alpha \ wedge \ beta) _ {i \ dots j} = \ dfrac {(p + q)!} {p! q!} \ alpha _ {[i \ dots} \ beta _ {\ dots j] }[/matemáticas]

Los factoriales en la definición son molestos, pero son necesarios, aunque existen diferentes convenciones en las que los factoriales aparecen en diferentes lugares.

Lo siento, terminaré ahora, en mi país es de noche y tengo que dormir. Continuaré mañana 🙂

Un producto cruzado tiene un valor vectorial (en realidad un pseudo vector). El dominio es el espacio tridimensional, en coordenadas cartesianas.

El producto exterior de dos vectores tiene un valor tensorial, en un dominio más grande de cualquier número de dimensiones finitas y coordenadas generales. Los productos de cuña actúan sobre tensores con índices más bajos.

[math] a \ times b = * (a \ wedge b) [/ math], donde * es el operador de dualidad de Hodge.

Me parece que el artículo de Wikipedia Álgebra exterior aborda este problema adecuadamente.

More Interesting

¿Qué hacen los matemáticos a diario?

Mirando la raíz [matemática] n [/ matemática] como operador, ¿por qué la colocamos a la izquierda de un número en lugar de a la derecha como cualquier otro operador binario?

Cómo calcular la suma de todos los elementos de un conjunto de potencia

¿Por qué los matemáticos no usan pruebas de dos columnas?

¿Es (P + a / v ^ 2) (V - b) = RT dimensionalmente correcto?

¿Se definió pi independientemente del conocimiento de los ángulos en un círculo, o se definió para definir ángulos en un círculo?

¿Cuál es el método para calcular el antilog sin usar la tabla de registro?

¿Son buenos los INTP en matemáticas?

¿Para qué sirve el triple plus?

¿Por qué los números complejos se basan en raíces cuadradas negativas y no en logaritmos negativos?

Un campo rectangular tiene 15 m de largo y 10 m de ancho. En una esquina, se excava un pozo cuadrado de 5 m por 5 m hasta una profundidad de 1 m. La tierra excavada se extiende uniformemente en la parte restante del campo. ¿Cuál es el aumento en el nivel del campo?

Después de 15 años, un hombre tendrá seis veces la edad que tiene ahora. ¿Cuál es su edad actual?

¿Crees en las estrategias de martingala (en relación con la teoría de la probabilidad)?

¿Las dimensiones de la teoría de cuerdas se aplican a la 'realidad'? ¿Son las dimensiones herramientas matemáticas que en realidad no existen?

¿Qué es el álgebra multilineal? ¿Es una generalización del álgebra lineal?