¿Qué son las funciones de onda ortogonales?

El concepto de ortogonalidad se remonta a vectores, como estos:

Geométricamente, dos vectores son ortogonales cuando son perpendiculares, es decir, cuando hay un ángulo de 90 grados entre ellos. Por ejemplo, los vectores [math] \ mathbf {v} [/ math] y [math] \ mathbf {w} _1 [/ math] son ​​ortogonales.

En tres dimensiones, es posible identificar tres vectores unitarios (vectores con una longitud de 1) que son mutuamente perpendiculares: [math] \ hat {\ mathbf {x}} [/ math] que apunta en la dirección x, [math ] \ hat {\ mathbf {y}} [/ math] que apunta en la dirección y y [math] \ hat {\ mathbf {z}} [/ math] que apunta en la dirección z. Estos tres vectores se ven así:

Los tres vectores son perpendiculares entre sí, y no hay otro vector (en 3D) que no pueda expresarse como una combinación lineal de estos tres vectores. En otras palabras, cualquier vector [math] \ mathbf {v} [/ math] puede escribirse como una combinación lineal de estos vectores,

[math] \ mathbf {v} = v_x \ hat {\ mathbf {x}} + v_y \ hat {\ mathbf {y}} + v_z \ hat {\ mathbf {z}} [/ math]

El coeficiente [math] v_x [/ math] cuantifica cuánto señala este vector en la dirección x, [math] v_y [/ math] indica cuánto apunta en la dirección y y [math] v_z [/ math] indica cuánto apunta en la dirección z. Por esta razón, llamamos a estos vectores unitarios vectores “básicos”. Forman una base completa para construir cualquier vector en el espacio. Ahora, podemos definir el producto punto ([math] \ cdot [/ math]) de dos vectores,

[matemáticas] \ mathbf {u} \ cdot \ mathbf {v} = u_x v_x + u_y v_y + u_z v_z [/ math]

Geométricamente, el producto de punto proyecta un vector sobre el otro, o más o menos te dice cuánto apuntan los dos vectores en la misma dirección. Si los dos vectores son ortogonales o perpendiculares, entonces su producto punto es cero,

[math] \ mathbf {u} \ cdot \ mathbf {v} = u_x v_x + u_y v_y + u_z v_z = 0 [/ math] (ortogonal)

Ahora, generalicemos esto a un espacio con cualquier cantidad de dimensiones. En las dimensiones [math] n [/ math], podemos identificar un conjunto ortogonal de vectores de unidad base: [math] \ hat {\ mathbf {e}} _ 1 [/ math], [math] \ hat {\ mathbf {e }} _ 2 [/ matemática], [matemática] \ hat {\ mathbf {e}} _ 3 [/ matemática],…, [matemática] \ hat {\ mathbf {e}} _ n [/ matemática]. Mientras este sea un conjunto completo de vectores de base ortogonales (no vectores de base repetidos), cualquier vector en este espacio puede escribirse como una combinación lineal de estos vectores de base,

[math] \ mathbf {v} = v_1 \ hat {\ mathbf {e}} _ 1 + [/ math] [math] v_2 \ hat {\ mathbf {e}} _ 2 +… + [/ math] [math] v_n \ hat {\ mathbf {e}} _ n [/ math]

o

[math] \ mathbf {v} = \ sum_ {m = 1} ^ {n} [/ math] [math] v_m \ hat {\ mathbf {e}} _ m [/ math]

Si tenemos en cuenta una base particular, podemos identificar el vector con el conjunto de coeficientes [math] v_m [/ math]. En dimensiones más grandes, simplemente nos referimos al producto escalar como producto escalar o producto interno. Por lo tanto, el producto escalar de dos vectores es

[math] \ mathbf {u} \ cdot \ mathbf {v} = u_1 v_1 + u_2 v_2 +… + u_n v_n = \ sum_ {m = 1} ^ {n} u_m v_m [/ math]

Nuevamente, si estos dos vectores son ortogonales, entonces este producto escalar es cero.

Después de todo eso, podría preguntarse “¿Qué tiene esto que ver con las funciones de onda?” Bueno, una función de onda [matemática] \ psi (x) [/ matemática] no es otra cosa que un vector de dimensión infinita . Arriba, usamos [matemática] m = 1,2,3,… [/ matemática] para indexar los coeficientes y los vectores base. En mecánica cuántica, la posición [matemáticas] x [/ matemáticas] es solo un índice. Entonces, el valor de la función de onda en cada punto del espacio es el coeficiente de algún vector base (abstracto). Y el producto escalar o interno de dos funciones de onda [matemáticas] \ psi (x) [/ matemáticas] y [matemáticas] \ phi (x) [/ matemáticas] es

[matemáticas] \ langle \ psi, \ phi \ rangle = \ int _ {- \ infty} ^ {\ infty} dx \ \ psi ^ * (x) \ phi (x) [/ math]

donde aquí tomamos el conjugado complejo (denotado por [math] * [/ math]) de la función de onda de la izquierda. Debido a que el índice [math] x [/ math] es una variable continua, la suma anterior se convierte en una integral. Pero aparte de eso, esta expresión es la misma que la anterior para el producto escalar de vectores. Al igual que antes, si las dos funciones de onda son ortogonales, entonces su producto interno es cero,

[matemáticas] \ int _ {- \ infty} ^ {\ infty} dx \ \ psi ^ * (x) \ phi (x) = 0 [/ matemáticas]

¿Por qué es eso importante? Bueno, supongamos que alguna función de onda [matemática] \ phi (x) [/ matemática] es la solución de una ecuación de la forma,

[matemáticas] \ left (\ frac {d} {dx} \ left [p (x) \ frac {d} {dx} \ right] + q (x) \ right) \ phi (x) = \ lambda w ( x) \ phi (x) [/ matemáticas]

donde [matemática] p (x) [/ matemática], [matemática] q (x) [/ matemática] y [matemática] w (x) [/ matemática] son ​​funciones de [matemática] x [/ matemática] y [matemática ] \ lambda [/ math] es un número real. Esta es la ecuación de Sturm-Liouville (la ecuación de Schrödinger independiente del tiempo es una forma especial de esta ecuación) y hay un teorema que establece (i) que hay un número infinito de soluciones [matemáticas] \ phi_m (x) [/ matemáticas ] ([matemática] m = 1,2,3,… [/ matemática]) a esta ecuación y (ii) las soluciones forman un conjunto completo de funciones ortogonales. Lo que esto significa es que cualquier función con buen comportamiento [matemática] f (x) [/ matemática] puede escribirse como una combinación lineal de estas funciones,

[matemáticas] f (x) = \ sum_ {m = 1} ^ {\ infty} c_m \ phi_m (x) [/ matemáticas]

Con suerte, verá la similitud entre esta expresión y nuestra expresión anterior expandiendo el vector [math] \ mathbf {v} [/ math] en términos sobre algún conjunto de vectores básicos. Es exactamente la misma idea. En mecánica cuántica, cada una de las [matemáticas] \ phi_m (x) [/ matemáticas] corresponde a un estado físico particular del sistema, correspondiente a cualquier operador que aparezca en el lado izquierdo de la ecuación de Sturm-Liouville. Si [math] \ Psi (x, t) [/ math] es la función de onda del sistema en el momento [math] t [/ math] que representa el estado físico general, entonces puede estar compuesto por una combinación posiblemente infinita de un físico particular declara al mismo tiempo ,

[matemáticas] \ Psi (x, t) = \ sum_ {m} c_m (t) \ phi_m (x) [/ matemáticas]

Para obtener la proyección del estado físico general (vector) [matemática] \ Psi [/ matemática] en un estado particular (vector) [matemática] \ phi_m [/ matemática], podemos aprovechar la ortogonalidad de las funciones de onda [matemáticas] \ phi_m (x) [/ matemáticas],

[math] \ int _ {- \ infty} ^ {\ infty} dx \ \ phi ^ * _ k (x) \ phi_l (x) = \ {0 [/ math] if [math] k \ neq l [/ math] , [matemáticas] 1 [/ matemáticas] si [matemáticas] k = l \} [/ matemáticas]

Para este propósito, puedo establecer el producto interno de cada [math] \ phi_m [/ math] consigo mismo igual a uno sin cambiar realmente nada. Con esto, solo tomamos el producto interno de ambos lados de la ecuación anterior con [math] \ phi_k (x) [/ math] para obtener

[matemáticas] c_k (t) = \ int _ {- \ infty} ^ {\ infty} dx \ \ phi ^ * _ k (x) \ Psi (x, t) [/ math]

Por lo tanto, tener un conjunto ortogonal de funciones de onda como base hace que las matemáticas sean mucho más fáciles. También sucede, gracias al teorema de Sturm-Liouville, que los estados físicos particulares correspondientes a los observables también siempre corresponden a las funciones de onda ortogonales.

La función de onda puede considerarse como un vector en un espacio vectorial lineal de dimensiones infinitas. Para representar dicho vector necesitamos un espacio de dimensiones infinitas con un conjunto de vectores de base ortonormal. Generalmente, tal conjunto de bases es un conjunto de funciones propias del operador hermitiano. Estas funciones propias correspondientes a diferentes valores propios son ortogonales (perpendiculares) entre sí. Cuando se normalizan, se comportan como vectores unitarios en un espacio vectorial lineal de dimensiones infinitas. Una función de onda dada tendrá diferentes representaciones en diferentes conjuntos de bases. La realidad física debe ser independiente del sistema de coordenadas. Entonces, para el formalismo general, escribimos el vector de estado independientemente de cualquier sistema de coordenadas. Luego, decimos los vectores como vectores ket en el espacio ket. También definimos el conjugado complejo al vector ket y los llamamos vector bra. | psi> se lee como ket psi. Y

se define como producto escalar si phi y phi. Si = 0, entonces phi y psi son ortogonales entre sí.

Una función de onda para una partícula es algo que contiene toda la información relevante de esa partícula: su posición, momento, energía, giro, etc. La cantidad más fácil de obtener es la posición, ya que las funciones de onda [math] \ psi [/ math] se representan con mayor frecuencia en el espacio de posición ([math] \ psi (x) [/ math]). Max Born interpretó la función de onda como la especificación de la probabilidad de un resultado. Por ejemplo, la probabilidad de que se detecte una partícula en la posición [matemática] x [/ matemática] es [matemática] | \ psi (x) | ^ 2 [/ matemática] (el cuadrado complejo de la función de onda en esa posición).

Debido a la interpretación de probabilidad, la función de onda debe seguir algunas reglas de las estadísticas. Específicamente, debe normalizarse , lo que significa que la probabilidad de encontrar una partícula en algún lugar debe ser 1 (= 100%). Esto se puede escribir matemáticamente como la condición

[matemáticas] \ int _ {- \ infty} ^ {\ infty} | \ psi (x) | ^ 2 \ mathrm {d} x = 1 [/ math].

En este caso, se permite que la partícula esté en cualquier lugar en 1 dimensión, que es la razón para integrarse de infinito negativo a positivo. Si esta integral le da algo distinto de 1, digamos una constante [matemática] A [/ matemática], simplemente divida [matemática] \ psi (x) [/ matemática] por [matemática] \ sqrt {A} [/ matemática] para normalizarlo. Después de eso, la función de onda se puede usar para encontrar la posición promedio, la energía, etc. de la partícula.

Este sitio (Quantum Mechanics: Psi: Physics) ofrece mucha información sobre funciones de onda y cosas relacionadas, con algunos buenos ejemplos (se recomienda un poco de experiencia en matemáticas / física).

Matemáticamente, solo necesitamos entender las funciones ortogonales. Las funciones de onda son solo otro ejemplo de ellas. Creo que es fácil entender la ortogonalidad entendiendo sus analogías con los vectores.

Las funciones también son como vectores. La única diferencia es que los vectores son de dimensión finita (generalmente 2 o 3 dimensiones) pero las funciones son vectores de dimensión infinita (si (1,2,3) es un vector 3D, entonces una función escrita en una notación de vector podría ser (f (1) … f (1.2)… .f (5.5)… ..f (97.88) …… ..hasta el infinito). Entonces tienen dimensiones infinitas. Esto significa dos cosas

  1. Al igual que necesitamos 3 vectores ortogonales para representar cualquier otro vector en el espacio 3D, necesitaremos un conjunto de funciones ortogonales infinitas para representar cualquier función aleatoria. ¿Cómo decir si dos funciones son ortogonales?
  2. Al igual que determinamos la ortogonalidad de dos vectores comprobando que su producto escalar es cero, para las funciones verificamos que cierta integral sea cero. Esta integral nos dice que f (x) es ortogonal a g (x) entre aa b.

Un famoso ejemplo de tales funciones es sin (x), sin (2x), sin (3x)….

cuando

Esto nos permite escribir la serie de Fourier. Del mismo modo, otras funciones ortogonales nos ayudan a escribir otras representaciones en serie de la función. La publicación original fue publicada aquí.

¿Cómo pueden las funciones ser ortogonales?

“Ortogonal” significa “perpendicular”. Para los vectores perpendiculares, su producto punto es cero. (El coseno de 90 grados es cero.) Puede calcular el producto escalar multiplicando los elementos vectoriales correspondientes (es decir, 1 con 1, 2 con 2, 3 con 3, …) y luego sumando todos estos productos.

Las funciones también pueden ser ortogonales, porque las funciones pueden ser como vectores con un número infinito de elementos. Sin embargo, en esta extensión, ya no puede sumar los productos de los elementos; debe integrar el producto de las dos funciones. (Para funciones valiosas complejas, es un poco más complicado).

Las funciones de onda que son diferentes soluciones de la ecuación de Schrödinger (es decir, para el mismo hamiltoniano) son ortogonales entre sí.

Comencemos con algunos conceptos básicos del espacio euclidiano.

Para 2 vectores en el espacio euclidiano ordinario, tenemos el siguiente producto de puntos:
[matemáticas] \ vec {v} \ cdot \ vec {w} = | \ vec {v} || \ vec {w} | \ cos \ theta [/ math]

Donde, [math] | \ vec {a} | [/ math] es la longitud del vector [math] \ vec {a} [/ math], y [math] \ theta [/ math] es el ángulo entre vectores [matemáticas] \ vec {v} [/ matemáticas] y [matemáticas] \ vec {w} [/ matemáticas]. Cuando los dos vectores son ortogonales, o [matemática] \ theta = \ frac {\ pi} {2} = 90 [/ matemática], obtenemos la condición ortogonal:
[matemáticas] \ vec {v} \ cdot \ vec {w} = 0 [/ matemáticas]

Esto es lo que significa que dos vectores sean ortogonales.

Podemos representar vectores en lo que se llama una base. Puede pensar en una base simple como un conjunto de 3 vectores mutuamente ortogonales [matemática] {\ hat {e_i}, i = 1,2,3} [/ matemática] con quienes podemos escribir todos los demás vectores en este espacio como una suma lineal de ellos, y proyectamos nuestro vector [math] \ vec {v} [/ math] en estos 3 vectores para obtener los componentes de [math] \ vec {v} [/ math] en esa base. Por ejemplo, en la base [matemática] {\ hat {x}, \ hat {y}, \ hat {z}} [/ math], obtenemos los componentes cartesianos antiguos regulares del vector [math] \ vec {v }[/matemáticas]!
[matemáticas] \ vec {v} = v_x \ hat {x} + v_y \ hat {y} + v_z \ hat {z} [/ math]

Cuando cambiamos la base a otra base (que debe poder expresarse como una suma lineal de nuestros viejos vectores de base ), obtenemos los componentes de [math] \ vec {v} [/ math] en esa base, es decir
[matemáticas] \ vec {v} = \ sum \ limits_ {i = 1} ^ 3 v_i \ hat {e_i} [/ matemáticas]

Donde [matemáticas] v_i = \ vec {v} \ cdot \ hat {e_i} [/ matemáticas]

En la mecánica cuántica, uno de los axiomas es que la función de onda (que describe el estado de un sistema) es un rayo / vector en otro “espacio”, que es conceptualmente similar a un espacio euclidiano, llamado espacio de Hilbert. Este espacio de Hilbert es un espacio euclidiano de dimensiones infinitas, y está equipado con su propia definición de un producto de puntos: [matemáticas] \ langle \ phi | \ psi \ rangle [/ matemáticas]. Ahora, similar a la notación [math] \ vec {v} [/ math], los vectores en este espacio de Hilbert están representados por lo que se llama kets, o [math] | \ psi \ rangle [/ math] o bras [math] \ langle \ psi | [/ math]. Ahora, de manera similar a lo anterior, podemos encontrar los componentes de estos kets en diferentes bases. Por ejemplo, en base a la posición , tenemos que:
[matemáticas] \ psi (x) = \ langle x | \ psi \ rangle [/ matemáticas]
[matemáticas] \ psi ^ * (x) = \ langle \ psi | x \ rangle [/ matemáticas]

¡Los componentes de base de posición de [matemáticas] | \ psi \ rangle [/ matemáticas] resuelven (lo adivinaron) la ecuación de Schrodinger!

Aquí, [math] | x \ rangle [/ math] son ​​los “vectores de base de posición”, es decir, son estados propios del operador de posición [math] X [/ math] con el valor propio [math] x [/ math]:
[matemáticas] X | x \ rangle = x | x \ rangle [/ matemáticas]

Estos vectores de base de posición [math] | x \ rangle [/ math] están equipados con la identidad:
[matemáticas] \ int \ límites _ {- \ infty} ^ {\ infty} \ mathrm {d} x | x \ rangle \ langle x | = I [/ matemáticas]
Donde [math] I [/ math] es el operador de identidad.

Entonces, ahora estamos equipados para descubrir cuál es el producto escalar de dos funciones de onda [math] | \ psi \ rangle [/ math] y [math] | \ phi \ rangle [/ math]:

[matemáticas] \ langle \ phi | \ psi \ rangle = \ langle \ phi | I | \ psi \ rangle = \ int \ limits _ {- \ infty} ^ {\ infty} \ mathrm {d} x \ langle \ phi | x \ rangle \ langle x | \ psi \ rangle = \ int \ limits _ {- \ infty} ^ {\ infty} \ mathrm {d} x \ phi ^ * (x) \ psi (x) [/ math]

Finalmente, la condición para que dos funciones de onda sean ortogonales es:
[matemáticas] \ langle \ phi | \ psi \ rangle = \ displaystyle \ int \ limits _ {- \ infty} ^ {\ infty} \ mathrm {d} x \ phi ^ * (x) \ psi (x) = 0 [ /matemáticas]

Para un buen resumen de las funciones de onda y la probabilidad, debe consultar: La respuesta de Richard Hayson a ¿Cómo funciona la probabilidad en la mecánica cuántica?

Similar a los vectores ortogonales, las funciones de onda ortogonal son aquellas cuyo producto interno se define como nulo. Intuitivamente, puede pensar en estas funciones como no compartir ningún componente en una base dada.

La multiplicación de una función ortogonal y su matriz de transposición conducen a la unidad.

Las funciones de onda ortogonales pueden simbolizar estados físicos mutuamente excluyentes.

Producto escalar medio ortogonal = 0.

Para funciones, el producto escalar es la integral del producto de los valores de la función. Por ejemplo, sin y cos son dos funciones ortogonales, a menudo utilizadas para describir ondas.