¿Qué tan útil es aproximar la fotografía de espectro completo?

Bueno, piense en esto: si la fotografía reproduce perfectamente la luz de la escena, exactamente como está presente en la escena en lugar de la forma en que el ojo la procesa, ¿no reaccionaría el ojo exactamente igual a la grabación que a la escena original? El procesamiento del color de la manera en que lo hace el ojo parece ser lo que ofrece una imagen antinatural cuando es visto nuevamente por ese ojo.

Ciertamente, parte de la razón por la que la imagen puede parecer “plana” es que la cámara y / o la imagen final tienen un rango dinámico mucho menor que el ojo. Algo así como. El ojo puede capturar aproximadamente 10-14 f-paradas de rango dinámico en un solo disparo. Pero no procesamos imágenes en vivo como imágenes fijas … el ojo se mueve constantemente y el cerebro integra la salida con el tiempo para construir nuestra imagen mental de la escena. Por lo tanto, tenemos un rango efectivo de más de 20 f-stops en la visión habitual. Una buena cámara DSLR puede hacer 8-11 paradas de rango dinámico. Por lo tanto, la popularidad actual de las imágenes HDR, que utilizan múltiples exposiciones para ofrecer un rango dinámico similar, luego lo comprime en algo que pueda representarse en nuestros monitores (~ 10 f-stops) o impresiones (6-7 f-stops).

La mayoría de las cámaras actuales emplean una matriz de filtros que registran píxeles R, G y B. No hay ninguna razón para creer que estos filtros no coincidan tan bien con el objetivo como lo serían los filtros globales para sensores R, G y B separados. El procesamiento de imágenes empleado en cámaras con sensor único es simplemente desbarbar … interpolar los colores que faltan en cada píxel de un solo color. Y claro, la misma grabación con la misma resolución lineal con tres sensores tendría un color más preciso que un solo sensor que usa la matriz de color.

Y, por supuesto, gran parte del procesamiento de imágenes utilizado en las cámaras de consumo es para hacer mejores JPEG y lidiar con el ruido. Cuando disparas sin procesar en un sensor grande, hay poco o ningún procesamiento de imagen en la cámara … incluso el desempañado se deja para más tarde.

Sin embargo, no es mucho mejor para el ojo promedio. Después de todo, el ojo contiene solo alrededor de 6 millones de sensores de color (por ejemplo, conos) junto con 120 millones de sensores de luma. Nos importa mucho más la resolución de la imagen que el color. Así es como las imágenes JPEG y el video MPEG generalmente se salen con 3/4 del color muestreado (casi todos los sistemas de consumo registran un color submuestreado 4: 2: 0, excepto la foto o el video en bruto) sin que mucha gente se queje. Y quienes lo hacen suelen ser las personas que editan ese video: el submuestreo hace que el color sea “frágil” y se interpone en el camino de algunas cosas (croma-keying) más de lo que produce un color terrible, visualmente.