¿Por qué necesitamos tantos espacios de color diferentes?

El término espacio de color es algo ambiguo; a menudo se usa para referirse a la gama de colores (junto con otra información, como el punto blanco estándar) específica para un dispositivo determinado o estándar de salida. Un ejemplo de dicho espacio sería el estándar sRGB, que se basaba en el comportamiento típico de un CRT en color. Hay varios de estos en gran parte porque hay una amplia gama de posibles dispositivos de salida; por ejemplo, un CRT es obviamente un dispositivo muy diferente, con características muy diferentes, que una impresora a color o un proyector de cine y una película en color.

Luego está lo que podríamos llamar un modelo de color , que es un medio matemáticamente definido para identificar cualquier color dentro del rango de la visión humana. También hay una serie de estos, que surgieron porque un modelo dado se adaptaba mejor a una gama particular de aplicaciones que otras, o por el refinamiento de una clase de modelo dada con el tiempo. La base para la mayoría de estos es un estándar desarrollado hace décadas llamado el espacio CIE XYZ , o los valores de triestímulo. Otros modelos comunes de este tipo incluyen los espacios CIE Yxy , Yu’v ‘y Lab (entre otros). (CIE es una organización internacional de estándares de color).

Finalmente, también tenemos diferentes medios para codificar el color para la transmisión o visualización. Por ejemplo, las pantallas electrónicas como LCD y CRT suelen producir color usando tres primarios aditivos, por lo que el medio “nativo” de codificar el color para estos es RGB. En este caso, esto no se refiere a un modelo de color completo o espacio de color estándar, ya que solo estamos diciendo que la información está en forma de señales rojas, verdes y azules separadas, pero eso solo no le dice qué de los primarios rojo, verde y azul del que estamos hablando, o de cualquier otra información que necesitemos para comprender completamente cómo un dispositivo en particular produce color. Las impresoras, por supuesto, usan color sustractivo, por lo que normalmente estarían operando con información CMYK. Se desarrollaron otros medios para codificar el color, como el uso de señales de diferencia de color junto con una señal de luminancia (por ejemplo, YIQ, YCrCb, etc.) por razones de transmisión más eficiente (la información del color no necesita tomarse como mucho ancho de banda como el canal de luminancia) y / o compatibilidad con dispositivos anteriores (en televisión, la señal Y es básicamente lo que usaban los televisores en blanco y negro; agregando dos señales de diferencia de color, que un conjunto en blanco y negro ignoraría, deje que los televisores en color trabajar en un sistema compatible con ambos).

Este es un tema muy complicado, y solo puedo rascar la superficie aquí, pero espero que haya sido suficiente para responder a su pregunta.

Hay varias razones, una es la infancia de la transmisión de imágenes. Algunos desaparecerán o dejarán de ser relevantes para el contenido futuro: es solo la evolución de las tecnologías y nuevos usos inesperados.

Pero también está el componente humano. Cuando pintamos algo, necesitamos describir el color y modificarlo, por lo que hay muchos espacios de color “perceptuales” (por ejemplo, HSV). Estos nos ayudan a caracterizar el color y a encontrar qué colores necesitamos si agregamos luz o eliminamos la luz (componente de valor), o si colocamos un objeto en la sombra (saturación, pero también valor).

Creo que la evolución nos llevará hacia algunos espacios de color más estandarizados (ver Evolución ICC), probablemente una luz virtual, más grande que visible, para máquinas y pocas perceptivas, pero no limitada a 0 a 1 o 0 a 255 como HSV actual / HSL, entonces en dirección al Munsell más antiguo (el brillo y la saturación percibidos dependen del tono).

Nota: el gamma era importante, pero ahora está mucho más estandarizado y es “automático”, por lo que las personas se preocupan menos por él (aunque algunas operaciones deben realizarse con diferentes funciones gamma, pero los programas lo tienen en cuenta). Creo que los espacios de color serán menos relevantes para el funcionamiento normal, solo porque la elección y la conversión podrían realizarse automáticamente (para contenido futuro).

Tal vez sería una mejor definición, que no llamamos espacio de color RGB, HSV, CIE XYZ, Luv o CAM, sino que los modelos de color, máquina o humano dependían. En el interior (en algunos casos, ProPhoto o en algunas otras muestras exóticas, también en el exterior), los modelos de color que podíamos ubicar y describir diversos procesos dependían (mi cámara en condiciones de iluminación particulares) o procesaban espacios de color independientes (sRGB, ProPhoto, Rec2020, ..). La mayoría de los modelos de color dependientes de la máquina se encuentran dentro de modelos de color dependientes de humanos, pero en el futuro podría invertirse, es decir, el modelo IrGUv sería mucho mayor que cualquier modelo RGB o similar. La mayoría de los modelos y espacios son tridimensionales, pero también podría haber 4 o más modelos / espacios dimensionales, como CMYOGR. El problema es que en la definición de color usamos el mismo nombre (digamos R para Rojo) en el modelo, donde significa Rojo primario puro y absoluto, y el modelo, donde R significa Rojo dependiente de la máquina, que no es lo mismo que el Rojo primario. También sería bueno si utilizamos la notación R’G’B ‘que significa rojo, verde y azul primario y sRGB, que significa que la máquina dependía de rojo, verde y azul.

¿Cuál de los varios espacios de color CIE defenderías? ¿La existencia de múltiples espacios de color CIE no le sugiere que uno no es ideal para todas las aplicaciones? Quizás este artículo pueda ayudarte: Conveniencia – Wikipedia.