No EE mayor, pero lo intentaré. Como John Bailey ha señalado amablemente, que esta podría ser la función de correlación cruzada definida por dos funciones en el dominio del tiempo [math] t \ in \ mathbb R [/ math]
[matemáticas] \ langle f \ star g \ rangle (\ tau) \ equiv [/ math] [matemáticas] \ int _ {\ mathbb R} {\ bar f (t) g (t + \ tau)} \, \ mathrm { d} t [/ matemáticas].
Primero me gustaría señalar que esta expresión es una instancia del llamado producto interno (ver Espacio del producto interno) definido en un espacio de Hilbert. Es posible que haya aprendido en su curso de álgebra lineal que puede equipar una regla para decidir si dos vectores en un espacio euclidiano, como un plano ordinario, están “correlacionados” o cuán “perpendiculares” están entre sí. Por ejemplo, los siguientes dos vectores en un plano ordinario son perpendiculares entre sí, o en palabras más inteligentes, son ortogonales: [matemática] (0,1) [/ matemática] y [matemática] (1,0) [/ matemática ], pero estos dos son “no tan ortogonales” (estrictamente hablando, la ortogonalidad no es un concepto “continuo”, algo es ortogonal o no, pero estoy seguro de que puedes entender lo que quiero decir): [matemáticas] (0 , 1) [/ math] y [math] (1/2, \ sqrt3 / 2) [/ math]. Esta definición se puede generalizar fácilmente al caso donde la dimensionalidad es mayor que 2, o con cierto cuidado, incluso el infinito.
- Si estoy buscando las alegrías del asombro conceptual como en la física y las matemáticas en los estudios de neurociencia, ¿será decepcionante?
- ¿Es posible que el desplazamiento sea mayor, menor o igual que la distancia?
- ¿Cuál es una forma intuitiva de entender 'medir' en la teoría de probabilidad?
- ¿Por qué un campo vectorial solenoidal es siempre el rizo de algún otro campo vectorial?
- Un cohete se dispara en el aire. La velocidad después de despegar es v (t) = -32t + 160 pies / segundo. ¿Cómo encuentro el desplazamiento mientras t varía en el intervalo 0 <= t <= 8?
Es posible que las personas deseen determinar en qué medida son dos funciones (por simplicidad, solo se consideran aquellas funciones “buenas” de valor complejo definidas en el eje real, ya que parecen ser las únicas relevantes aquí y en el futuro), o señales, “similares” a El uno al otro. Por ejemplo, veremos los siguientes dos pares de funciones en términos del borrador de su figura alrededor de [math] t = 0 [/ math]:
En el primer borrador, las dos señales son evidentemente “menos similares” que el par en el segundo borrador. Para definir y manipular tal “grado de similitud”, podemos buscar encontrar la relación de estos con el caso familiar de determinar cómo se correlacionan dos vectores en un espacio euclidiano. Para hacerlo, primero nos desviamos para ver cómo se define el producto interno para dos vectores en el espacio euclidiano:
Dado un espacio euclidiano n-dimensional [math] \ mathbb E ^ n [/ math], un producto interno [math] (\ cdot, \ cdot) [/ math] es una función que asigna un par de vectores a un número real: [math] (\ mathbf u, \ mathbf v) = \ sum_ {i = 1} ^ n {u_iv_i} [/ math], y el coseno del ángulo de intersección de [math] \ mathbf u [/ math] y [ math] \ mathbf v [/ math] se determina mediante [math] \ cos \ theta_ {uv} = \ frac {(\ mathbf u, \ mathbf v)} {| \ mathbf u || \ mathbf v |} [/ matemática], cuanto más pequeño es el producto interno, fijando las normas de u y v, el “más” ortogonal son entre sí ya que más cerca está [math] \ theta [/ math] a [math] \ pi / 2 [/ math ]
Observamos que, para determinar un vector inequívocamente en [math] \ mathbb R ^ n [/ math], toda la información necesaria es el n eje fijo y n números reales [math] (u_1, \ cdots, u_n [/ math] que especifica la coordenada de u wrt estos ejes, o más generalmente, el conjunto de n vectores básicos [math] \ mathbf e_1, \ cdots, \ mathbf e_n [/ math] y [math] (u_1, \ cdots, u_n [/ math] tal que [math] \ mathbf u = \ sum_ {i = 1} ^ n {u_i \ mathbf e_i} [/ math]. Y uno puede ver fácilmente que si usted está “mayormente” en dirección x, mientras que v “principalmente” en la dirección y, serían “muy” ortogonales, como se puede ver en la expresión del producto interno de que todos los términos son “pequeños”.
Ahora podemos hacer que el caso de dos señales sea análogo, notando que para determinar una señal [matemática] f (t) [/ matemática] sin ambigüedades, todo lo que necesitamos es determinar su valor en cada t. En realidad, la medición de t siempre es discreta, por lo que en realidad necesitamos determinar el valor de f en una secuencia discreta de [matemáticas] t_n [/ matemáticas], por ejemplo, en t = 0, + -1ms, + – 2ms, etc. Suponga que todo el proceso dura 2 segundos, luego necesitaremos 2000 puntos de datos para determinar [matemáticas] f (t) [/ matemáticas] con la precisión temporal correspondiente, y es equivalente a describir [matemáticas] f (t) [ / matemática] como la tupla 2000 (f (-1s), f (-1s + 1ms), f (-1s + 2ms),…, f (1s-2ms), f (1s-1ms)), así es una correspondencia 1-1 de f y un vector en [math] \ mathbb R ^ {2000} [/ math]. Si uno no está satisfecho con tal precisión, es libre de acortar el intervalo de tiempo, digamos, un us o más, pero la idea sería la misma.
Por lo tanto, dadas dos señales f y g, tenemos dos 2000 tuplas de números reales. Si estas tuplas representaran las coordenadas de dos vectores en [math] R ^ {2000} [/ math], sería sencillo determinar “cuán ortogonales” son entre sí. Así que simplemente adaptamos este mismo criterio que el que determina en qué medida son f y g similares entre sí, es decir, podemos definir el producto interno de f y g como:
[matemáticas] = \ sum_ {k = 1} ^ {2000} {f (-1s + k \ mathrm {ms}) g (-1s + k \ mathrm {ms})} [/ math]
y define la norma de f o g como la raíz cuadrada del producto interno de f o g consigo mismo.
Podemos tomar el límite continuo, ya que estamos seguros de que si las señales no oscilan demasiado rápido, el aumento de la finura del intervalo de tiempo de medición no haría mucha diferencia una vez que el intervalo ya sea lo suficientemente pequeño como para que dentro de cualquiera de estos intervalos las señales no cambia sustancialmente, hay (tenga en cuenta que multiplicamos los rhs con una constante adecuada que se relacione con la longitud del intervalo de tiempo para que el resultado no sea diferente):
[matemática] = [/ matemática] [matemática] \ frac {1 \ matemática {ms}} {2 \ matemática s} [/ matemática] [matemática] \ sum_ {k = 1} ^ {2000} {f_k g_k} [/ math] [math] \ rightarrow [/ math] [math] \ lim_ {n \ rightarrow \ infty} {\ frac {1} {n} \ sum_ {k = 1} ^ n {f_k g_k }} [/ math] [math] \ rightarrow [/ math] [math] \ frac {1} {T} \ int_I {\ mathrm dt f (t) g (t)} [/ math]
La generalización a funciones de valores complejos es sencilla:
[matemáticas] \ equiv \ int {\ mathrm dt \ bar f \ cdot g} [/ math]
donde el factor de normalización [matemática] \ frac {1} {T} [/ matemática] se suprime, ya que es solo una elección de convención, ya menudo cancelamos este factor para determinar la correlación de dos señales, ya que el producto interno debe ser dividido por el producto de las normas de fyg que lleva el mismo factor; y se entiende que el intervalo de integración se ha especificado de acuerdo con el problema tratado; sin embargo, generalmente es conveniente elegir que sea el [math] \ mathbb R [/ math] completo, es decir, el intervalo de tiempo [math] t \ in (- \ infty, \ infty) [/ math], como en En el pasado lejano y el futuro lejano, se supone que la señal dejará de existir.
De acuerdo con esta definición de producto interno, podemos justificar nuestra sensación de que las dos señales en el primer borrador no están tan correlacionadas, como cuando la señal roja es fuerte, la verde es semana y viceversa (compárese el caso en el que principalmente estar en la dirección x mientras que v en y); mientras que en el segundo borrador, las dos señales se superponen mucho, por lo que el producto interno es relativamente grande, lo que indica que estas dos señales están más correlacionadas que las dos primeras.
En cuanto a la intercorrelación cruzada / que describe en su pregunta, no es más que el producto interno de la señal [matemáticas] f (t) [/ matemáticas], y una señal [matemáticas] g (t + \ tau) [/ matemáticas ] que se retrasa por [math] \ tau [/ math]. Todavía podemos ilustrar esto con los borradores. Si la señal verde en el primer borrador se retrasara de tal manera que se superponga en gran medida al primer pico del rojo, evidentemente y matemáticamente estaría más correlacionado con el rojo que en el presente caso; mientras que en el segundo borrador, si la señal verde se retrasara por un minuto, perdería por completo la roja y no se correlacionarían, ya que la correlación cruzada sería básicamente cero.
Espero que ayude.
Nota:
Tomemos el caso donde el intervalo es [matemática] \ Delta t [/ matemática], podemos aproximar la señal como: [matemática] f (t) = \ sum_ {k = – \ infty} ^ {k = \ infty} { f (k \ Delta t) e_ {k} (t)} [/ math], donde [math] e_k (t) [/ math] es cero en todas partes excepto en el intervalo [math] [k \ Delta t, (k + 1) \ Delta t) [/ math] donde toma el valor [math] \ Delta t [/ math] (principalmente para garantizar la convergencia cuando se toma el límite continuo). Este conjunto de bases es bastante natural, pero inconveniente para extraer el patrón de variación de la señal. Por lo tanto, una base más conveniente debería ser [matemática] e ^ {\ mathrm ikx} [/ matemática], [matemática] k [/ matemática] sea discreta o continua cuando la normalización se contabiliza adecuadamente, y las coordenadas de [matemática] f [/ math] con respecto a cuál es solo su transformada de Fourier [math] \ tilde f (k) [/ math].