Tengo un recuerdo muy, muy terrible. No recuerdo las fórmulas crummy con derivados o todas esas definiciones. Tengo que recordarlo así:
Un vector es algo que es tangente a una línea. El espacio de todos los vectores en un punto es un espacio vectorial.
Un covector es una función lineal que envía vectores a escalares. El espacio de todos los covectores en un punto también es un espacio vectorial.
Un tensor es el producto tensorial de vectores y covectores. El producto tensor envía espacios vectoriales a espacios vectoriales más grandes.
No hay necesidad de las nociones de “covarianza” o “contravarianza” aquí. El objeto geométrico es lo que tiene significado físico, y el objeto geométrico no varía en absoluto bajo un cambio en los sistemas de coordenadas.
Hay algunas formas de formalizar la noción de “algo tangente a una curva”. La forma algebraicamente más fácil es definirlo de la siguiente manera. Si desea definir un vector en el punto p, y tiene alguna curva que pasa por el punto p (por ejemplo, [math] \ gamma (t) [/ math] es una curva en su múltiple o en el espacio de Minkowski o qué tiene) , con [math] \ gamma (0) = p [/ math]), el vector [math] v [/ math] tangente a la curva [math] \ gamma [/ math] en el punto [math] p [/ math ] es un objeto que, dada una función [matemática] f [/ matemática] en su múltiple, devuelve el escalar [matemático] vf = \ frac {d} {dt} f (\ gamma (t)) | _ {t = 0} [/ matemáticas].
Por la regla de la cadena, esto es [matemáticas] vf = \ frac {\ partial f} {\ partial x ^ i} \ frac {d \ gamma ^ i} {dt} | _ {t = 0} [/ math] ( convenio de suma de índice repetido). Podemos escribir [matemáticas] v = \ frac {d \ gamma ^ i} {dt} | _ {t = 0} \ frac {\ partial} {\ partial x ^ i} = v ^ i \ frac {\ partial} {\ parcial x ^ i} [/ matemáticas]. Aplique la regla de la cadena una vez más: [matemáticas] vf = v_i \ frac {\ partial f} {\ partial x ^ i} = v_i \ frac {\ partial y ^ j} {\ partial x ^ i} \ frac {\ parcial f} {y ^ j} [/ math]. Entonces, [matemáticas] v = v ^ i \ frac {\ partial} {\ partial x ^ i} = v ^ i \ frac {\ partial y ^ j} {\ partial x ^ i} \ frac {\ partial} { y ^ j} [/ matemáticas]. Eso es lo que significa la contravarianza para mí, y cada vez que alguien me pregunta cómo varían los componentes de los vectores bajo un cambio de base, ¡tengo que pasar por ese argumento completo en mi cabeza!
Si esto suena terriblemente horrible y matemático, tenga en cuenta que es la definición que Penrose da en su libro Road to Reality, es [similar a] la definición que usa Arnold en su libro Mathematical Methods of Classical Mechanics, y es la definición dada en Manifolds, Tensors y Formularios: una introducción para matemáticos y físicos (mi libro de referencia cuando alguien me pregunta sobre los requisitos previos para la relatividad general).
Nota al margen: he usado índices superiores / inferiores, pero NO he invocado la métrica en absoluto. La covarianza y la contravarianza están bien definidas en una variedad diferenciable sin métrica. Necesita la métrica para:
- Un mapa entre vectores y codificadores (“subir y bajar los índices”): el codificador [matemática] u [/ matemática] correspondiente al vector [matemática] v [/ matemática] es el que para todos los vectores [matemática] h [/ math], [math] uh = \ langle v, h \ rangle [/ math] donde [math] \ langle \ cdot, \ cdot \ rangle [/ math] es la métrica.
- Discutir geodésicas / “cómo se mueven las cosas” en múltiples.
- Para discutir la curvatura, el transporte paralelo o cualquier cosa que implique relatividad especial.
Pero estas cosas, covarianza y contravarianza, son independientes de la métrica.