¿Son todas las matrices tensores? Si es así, ¿por qué no llamamos tensores a todas las matrices?

No.

Puede pensar en un tensor de segundo orden como un mapa lineal sin estar demasiado equivocado; más generalmente, un tensor representa algún tipo de relación lineal entre vectores (o, más generalmente, otros tensores). Un mapa lineal puede representarse mediante una matriz, ya que elegir una base le permite escribir los componentes de un tensor en una matriz bidimensional, pero las matrices y los mapas lineales no son lo mismo; El mapa lineal es una criatura independiente de la base, que tiene muchas representaciones matriciales diferentes.

Si le entrego un conjunto de números bidimensionales, no es suficiente para que me diga qué mapa lineal (o tensor) representa; también tendría que decirle la base que estoy usando. Las matrices y los tensores son objetos fundamentalmente diferentes.

Además, los tensores de rango 2 son ligeramente más generales que los mapas lineales: no solo pueden mapear vectores a vectores, sino que también pueden actuar en vectores duales, cuyos componentes son covariantes en lugar de contravariantes.

No.

Una matriz es solo una cierta colección de números dispuestos en una matriz cuadrada o rectangular.

Por ejemplo

[matemáticas] \ begin {bmatrix} 9 y 6.5 y \ pi \\\\
3 y e y 1.98 \\\\
– \ pi & 5 & 3 \ end {bmatrix} [/ math]

y

[matemáticas] \ begin {bmatrix} 9 y 6.5 y \ pi y 21 \\\\
3 & e & 1.98 & \ sqrt {2} \\\\
– \ pi & 5 & 3 & – e \ end {bmatrix} [/ math]

son ambas matrices

Puede pensar en una matriz como un mapa: como una función lineal de un espacio lineal a otro, pero no tiene que hacerlo. También se puede considerar como un objeto matemático por derecho propio.

Podríamos escribir tales objetos simbólicamente como [math] A = \ left (A_ {ij} \ right) [/ math], con el entendimiento de que [math] i [/ math] y [math] j [/ math] son ​​índices que corren sobre las filas y columnas de la matriz.

También podemos definir la multiplicación en matrices generales siempre que tengan dimensiones compatibles, lo que significa que el número de columnas de la primera matriz es el mismo que el número de filas de la segunda matriz.

Definiríamos

[matemáticas] \ left (AB \ right) _ {ij} = A_ {ik} B_ {kj} [/ math]

donde el lado derecho involucra el producto de los dos números en cada matriz, con el entendimiento de que el índice repetido se debe sumar sobre todos los valores posibles.

La multiplicación izquierda y derecha son posibles solo para matrices cuadradas, por supuesto.

Ahora un tensor es, superficialmente, un objeto de aspecto algo similar a una matriz. Podríamos escribir ejemplos de algunos tensores usando una notación muy similar, por ejemplo

[matemáticas] T_ {ij}, S_ {ijklm}, \ cdots [/ matemáticas].

Entonces los tensores parecen matrices generalizadas. Pueden tener números arbitrarios de índices.

Un tensor con solo un índice se denomina comúnmente vector.

Lo que puede imaginar, tanto física como geométricamente, es que un tensor es un objeto fijo, un mapa lineal fijo de un espacio a otro espacio, y que los números que componen las entradas de un tensor se refieren a algunos sistemas de coordenadas o bases. en los dos espacios

Entonces, cuando los sistemas de coordenadas cambian de una manera bien definida, las entradas de un tensor también se transforman de una manera muy bien definida, de modo que el tensor todavía describe el mismo mapa en el nuevo sistema de coordenadas.

Entonces, por ejemplo, si consideramos los tensores en un espacio euclidiano tridimensional, podríamos imaginar rotar el sistema de coordenadas mediante una transformación ortogonal especial, lo que significa que el mapa está representado por una matriz de transformación cuyo determinante es igual a uno para que no El reflejo de los ejes del sistema de coordenadas está involucrado:

[matemáticas] x ‘= O x \ equiv x’_i = O_i ^ j x_j [/ matemáticas].

Aquí, tanto x como x ‘representarían el mismo vector en el mismo espacio lineal.

He planteado uno de los índices de la matriz de rotación, que en realidad no es necesario en este caso simple, pero debe tener en cuenta que si se consideran transformaciones más generales que rotaciones simples, o sistemas de coordenadas más generales que las coordenadas cartesianas, hay pueden ser dos tipos de vectores: covariante, con índices reducidos, y contra-variante con índices elevados.

También puede haber tensores con índices mixtos covariantes y contravariantes. Podríamos escribir la ley de transformación de un tensor covariante con dos índices como

[matemáticas] T ‘= OT \ bar O \ equiv T’ _ {ij} = O_i ^ k O_j ^ l T_ {kl} [/ matemáticas]

Una rotación deja la métrica del espacio euclidiano invariante, y esta métrica en sí misma puede escribirse como un tensor especial [matemático] g [/ matemático] o en componentes

[matemáticas] g_i ^ j = g ^ {ik} g_ {kj} = \ delta_ {ij} [/ matemáticas]

donde [math] \ delta [/ math] es el símbolo de Kronecker:

[matemáticas] \ delta_ {ij} = 1 \, \, \ text {para} \, \, i = j [/ matemáticas]

y

[math] \ delta_ {ij} = 0 \, \, \ text {for} \, \, i \ neq j [/ math].

Esto también define la operación de subir y bajar índices en un espacio más general y usar coordenadas más generales. Pero en el espacio euclidiano con coordenadas cartesianas se encontraría que todas las versiones del tensor métrico son diagonales y solo están dadas por el símbolo de Kronecker.

Las matrices de rotación [matemáticas] O [/ matemáticas] consisten en todas aquellas matrices que tienen el determinante 1, que dejan invariante el tensor métrico [matemáticas] g = \ delta [/ matemáticas]

[matemáticas] g ‘= O g O ^ T \ equiv g [/ matemáticas]

y colocando la métrica para el espacio euclidiano en las coordenadas cartesianas anteriores, y construyendo todas las matrices posibles [matemáticas] O [/ matemáticas] encontraríamos, después de algún trabajo, que

[matemáticas] O ^ {T} = O ^ {- 1} [/ matemáticas].

También se encontraría que el conjunto de todas esas matrices de rotación forman un grupo.

Escrito en componentes, la transformación bajo una rotación de un tensor con dos índices covariantes se vería como

[matemáticas] T ‘_ {ij} = O_i ^ k O_j ^ l T_ {kl} [/ matemáticas]

que también podría escribirse en notación libre de componentes como

[matemáticas] T ‘= OTO ^ T = OTO ^ {- 1} [/ matemáticas].

Las transformaciones de los tensores más generales se imaginan y construyen fácilmente.

Por lo tanto, un tensor, para repetir y resumir, puede considerarse como un mapa lineal de un espacio a otro espacio, o posiblemente de vuelta al mismo espacio que, sin embargo, tiene un significado fijo independiente de los sistemas de coordenadas especiales, aunque puede estar representado en varios sistemas de coordenadas diferentes.

Es un objeto que tiene un significado geométrico fijo y puede escribirse como una matriz generalizada con una ley de transformación definida.

Para ser más explícito, si un tensor covariante general se aplica a tantos vectores contravariantes en el espacio como el tensor tiene índices:

[matemáticas] R (u, v, w, x) = R_ {ijkl} u ^ iv ^ jw ^ kx ^ l [/ matemáticas]

entonces el resultado en el lado izquierdo es un número que es invariable bajo una transformación del espacio subyacente. También es una función lineal de cada uno de los vectores [matemática] (u, v, w, x) [/ matemática].

Ahora hay algunas sutilezas en las que no me referí con respecto a los tensores covariantes versus contravariantes, pero puede encontrarlos en otro lugar.

Una matriz es una secuencia finita de números con dos índices.

Un tensor es un objeto lineal-algebraico: a saber, un elemento de algún espacio vectorial [matemática] W = V ^ {\ otimes a} \ otimes (V ^ \ ast) ^ {\ otimes b} [/ math], donde V es un espacio vectorial fijo. Llamamos al número a + b el rango del tensor.

Supongamos que tiene algún tensor [matemático] A \ en W [/ matemático]. Si fija una base para V, esto le da una base dual para V *, y al tensorizarlas obtendrá una base para W. Podemos considerar el coeficientes de A en esta base como una matriz; si a + b = 2 , de modo que la matriz es bidimensional, entonces esa matriz es una matriz. Si tenemos esa matriz junto con la base para V y los números a y b , entonces podemos recuperar el tensor A.

Por otro lado, supongamos que tenemos un gráfico ponderado de borde con n vértices. Podemos registrar la información relevante sobre el gráfico creando una matriz A donde [math] a_ {ij} [/ math] es el peso del borde desde el vértice i hasta el vértice j , o cero si no existe dicho borde. Otra matriz que podría considerar es aquella en la que las columnas corresponden a sus clientes, y las filas corresponden a sus productos, y las entradas indican cuántos de cada producto ha comprado ese cliente.

Entonces, hay varios problemas con esta identificación:

  • Las matrices se usan para representar otras cosas además de los tensores
  • Las matrices no cuadradas ni siquiera pueden representar tensores en absoluto
  • Una matriz cuadrada no representa completamente un tensor por sí solo: necesita los números a + b para determinar un tensor hasta el isomorfismo, y también necesita la base para V si desea determinar el tensor en la nariz.

Se puede ver que cada matriz corresponde a una transformación lineal, y una transformación lineal es un ejemplo particular de un tensor de segundo orden. Entonces, en cierto sentido, la respuesta es sí. Sin embargo, como Daniel McLaury señala en su respuesta, la interpretación de las entradas de una matriz depende de la elección de la base para el espacio vectorial subyacente.

Por otro lado, las matrices también se pueden utilizar para representar entidades no relacionadas con espacios vectoriales, un ejemplo son las matrices de adyacencia.

, en el siguiente sentido .

Una matriz [math] n [/ math] por [math] n [/ math] es solo un mapa lineal de [math] \ mathbb {R} ^ n [/ math] a [math] \ mathbb {R} ^ n [/matemáticas].

Un tensor tipo [matemático] (1,1) [/ matemático] en un espacio vectorial [matemático] V [/ matemático] es solo un mapa bilineal de [matemático] V \ veces V ‘[/ matemático] a [matemático] \ mathbb {R} [/ math], que es equivalente a un mapa lineal de [math] V [/ math] a [math] V ” [/ math].

Usando el hecho de que los espacios vectoriales se incrustan naturalmente en sus dobles dobles, vemos que la “matriz cuadrada” es un caso especial de “tensor tipo [matemático] (1,1) [/ matemático]”.

No.
Diferenciar un vector [math] \ textbf {x} [/ math] por otro vector [math] \ textbf {y} [/ math] da como resultado una matriz.
[math] \ frac {\ partial (x_i)} {\ partial (y_j)} = {\ Delta_i} ^ j, [/ math] seguido de la regla de la cadena.
(Además, la aplicación del producto externo a un par de vectores de coordenadas da como resultado una matriz y el producto interno da como resultado escalar).
De manera similar, diferenciar una matriz [matemática] \ textbf {A} [/ matemática] por otra matriz [matemática] \ textbf {B} [/ matemática] da como resultado un tensor de 4º orden.
El escalar nunca es un vector.
No todos los vectores son matrices, ya que el producto externo no es lo mismo que la multiplicación de matrices.
[matemáticas] \ textbf {u} \ bigotimes \ textbf {v} = \ textbf {uv} ^ {T} [/ math]
Todas las matrices, por lo tanto, no son tensores.

Mire aquí: ¿Todas las matrices son tensores? Si es así, ¿por qué no llamamos tensores a todas las matrices?