Esa es una pregunta interesante parcialmente respondida por Gabriel.
El color es un atributo que el espectro electromagnético desarrolla en los ojos (retina) y la cabeza. Y tiene algo de eso correcto para IR y microondas (uwave). Depende del instrumento sensor.
Ahora, para el espacio y los satélites, hay un par de formas de hacer imágenes en color: una es usar filtros de color (RGB, Rojo Verde Azul) sobre una cámara (tubo) en blanco y negro (Blanco y Negro) y combinar las imágenes. Esto es lo que hicieron Voyager y Pioneer (y otros). La infame cámara Apollo 12 intentó hacer esto. Las cámaras más nuevas tienen diferentes dispositivos acoplados de carga de frecuencia (CCD) que responden a esas frecuencias. Foveon probó una retina artificial con profundidad en lugar de CCD adyacentes (los datos deben fusionarse o combinarse).
- Si se erradica el racismo, ¿por qué el blanco es el color para representar la paz y el negro para el mal?
- ¿Cuál es la química detrás de los esmaltes de cerámica que los hace el color, la textura, etc. que son?
- ¿Qué es un color que nadie ha visto?
- ¿Hay colores fuera de los 3 colores primarios?
- ¿Cuántos conos necesitarían los ojos de una persona para ver cada color que existe en el universo?
PERO, las imágenes en color requieren más bits de información que las imágenes en blanco y negro / escala de grises (elementos de imagen / píxeles). En algunos casos, la resolución espacial es más importante que la longitud de onda de los espectros visibles de un píxel. La información se sacrifica (se intercambia) para su resolución. Por esta razón, la mayoría de los satélites espías y las cámaras digitales en drones son de blanco y negro. La transmisión de color lleva más bits.
Los colores se pueden combinar según sea necesario. Pero no todas las necesidades son espectrales.