¿Es posible definir un problema de optimización convexa sobre variables de valor complejo?

No es posible que una función con salidas complejas sea convexa, por la razón que Paul ha declarado. Pero es completamente posible que las funciones que aceptan entradas complejas sean convexas.

Por ejemplo, cualquier norma de un espacio vectorial complejo es convexa. Por ejemplo:

  • la norma euclidiana [matemáticas] \ | x \ | _2 \ triangleq \ sqrt {x ^ H x} [/ matemáticas]
  • la [matemática] \ ell_1 [/ matemática] o la norma de Manhattan [matemática] \ | x \ | _1 \ triangleq \ sum_ {i = 1} ^ n | x_i | [/ matemática]
  • la norma de pico [matemáticas] \ | x \ | _ \ infty \ triangleq \ max_i | x_i | [/ matemáticas]

Cada uno de estos tiene interpretaciones significativas y útiles para vectores complejos, y cada uno es convexo.

Para un ejemplo más complejo, la siguiente función de matrices complejas es convexa:

[matemáticas] \ lambda: \ mathbb {C} ^ {n \ veces n} \ rightarrow \ R, ~ \ lambda (X) = \ sup_ {v \ in \ mathbb {C} ^ n, v \ neq 0} v ^ HXv / v ^ H v [/ matemáticas]

Si [math] X [/ math] es Hermitian, entonces [math] \ lambda (X) [/ math] es el valor propio máximo de esa matriz.

Tenga en cuenta, por supuesto, que en todos estos casos, los resultados son reales; Son las entradas las que son complejas.

Realmente no sé la respuesta, pero aquí está el problema más amplio: los números complejos no están ordenados, por lo tanto, la optimización sobre un conjunto complejo puede no ser realmente significativa. (la optimización se trata de encontrar extremos; es difícil para mí concebir los extremos cuando no hay orden).

Los números complejos sí aparecen indirectamente en la optimización: derivados de pasos complejos, transformaciones de Laplace (y otras complejas), etc.

Pero, en última instancia, el problema que termina siendo optimizado generalmente se define en el espacio de valor real. La parte compleja generalmente no es explícita.