Explicación de la calibración del color de la cámara

Figura 1_Sony_A55V_Embedded_JPEG_vs_ACR_Umbrella

Dos preguntas recurrentes que a menudo nos hacen los fotógrafos son: “Tengo la gestión del color correctamente configurada en mi computadora; ¿Por qué el color es diferente entre un JPEG fuera de la cámara y, por ejemplo, Lightroom (sustitúyalo con su convertidor de terceros favorito)? y "¿Por qué el color particular de una foto es diferente del color real?". En este artículo, veremos por qué el color de las imágenes se reproduce de manera diferente en las pantallas y monitores LCD de las cámaras, y los pasos que puede seguir para lograr colores más precisos.

¿Cuál tiene el paraguas rojo en el color correcto?" class="fancybox image" rel="gallery">Figura 1_Sony_A55V_Embedded_JPEG_vs_ACR_Umbrella
Figura 1. Imagen izquierda – JPEG incrustado, imagen derecha – RAW, abierta en ACR
¿Cuál tiene el paraguas rojo en el color correcto?

Aunque estas dos preguntas parecen ser diferentes, todavía tienen mucho en común. Esa es la parte en la que debemos considerar las etapas que se necesitan para pasar de los datos capturados al color, así como las limitaciones de los modelos de color y los medios de salida (monitor e impresión, principalmente) en lo que respecta a la reproducción del color.

los colores de la camiseta roja (muestras 1 y 2) y letras azules en el letrero "Policía de Nueva York" (muestras 3 y 4) son bastante diferentes" class="fancybox image" rel="gallery">Figura 2_Sony_A55V_Embedded_JPEG_vs_ACR
Figura 2. Imagen izquierda – JPEG incrustado, imagen derecha – RAW, abierta en ACR:
los colores de la camiseta roja (muestras 1 y 2) y las letras azules del letrero “Policía de Nueva York” (muestras 3 y 4) son bastante diferente

Los objetivos de este artículo son dos: el primero es demostrar que los archivos JPEG fuera de la cámara, incluidas las vistas previas en la cámara, no pueden usarse implícitamente, sin verificación, para evaluar el color ( como ya sabemos , el el histograma de la cámara también es engañoso ). El segundo es mostrar que no es necesario que el convertidor recomendado por el fabricante de la cámara esté específicamente ajustado para que coincida con el JPEG fuera de la cámara.

Comencemos con un ejemplo.

Recientemente, recibí un correo electrónico de un fotógrafo que me hacía esencialmente la misma pregunta que citamos al principio: ¿cómo es que el color en un archivo JPEG fuera de la cámara no se parece en nada al color del sujeto original de la toma? El fotógrafo estaba tomando fotos de garzas azules y colibríes, confiando en las vistas previas para evaluar las tomas, y estaba bastante confundido: la cámara mostraba azules fuertemente distorsionados en el cielo y en las aves. Se puede decir que la pantalla LCD y el EVF de la cámara están "calibrados" con una especificación desconocida, por lo que esta "calibración" y las condiciones de visualización pueden ser las causas del problema de color. Sin embargo, el color en el monitor de una computadora también se veía mal. Naturalmente, el fotógrafo decidió profundizar más y tomar una foto de algo azul para comprobar la precisión del color. El sujeto de prueba era un trozo de vidriera, y...(redoble de tambores, por favor) ... los archivos JPEG fuera de la cámara se veían no solo en la pantalla de la cámara, sino (como era de esperar al examinar las tomas de pájaros y el cielo) también en el monitor de una computadora.

Aquí está el JPEG fuera de la cámara (la cámara se configuró en sRGB, y el fotógrafo me dijo que configurarlo en Adobe RGB realmente no hizo mucha diferencia) . La región de interés era el panel de vidrio en el medio, el que parece de color cian.

Figura 3_Sony_a6500_embedded_JPEG
Figura 3. SONY a6500. JPEG incrustado

El fotógrafo dijo que estaba pintado en un azul mucho más profundo. Obviamente, pedí detalles y obtuve un archivo sin formato. Revisé los metadatos ( EXIF /Makernotes) y descarté cualquier problema con la configuración de la cámara: todos eran estándar. Al abrir el archivo sin procesar en Adobe CameraRaw con el balance de blancos "como se disparó" , obtuve un azul mucho más razonable, y el fotógrafo confirmó que se parecía mucho más a la cosa real, tal vez le faltaba un poco de profundidad en el azul, como si fuera es de una paleta ligeramente diferente. Entonces, esto no es un problema con el balance de blancos. Además, la conversión predeterminada en ACR demostró que el color podía reproducirse mejor que en el JPEG externo, incluso con un convertidor de terceros.

Figura4_Sony_a6500_ACR_render
Figura 4. SONY a6500. RAW abierto en ACR

La foto se tomó con una SONY a6500, por lo que mi impulso natural fue recomendar al fotógrafo que usara el convertidor "recomendado por SONY", que resulta ser Capture One (Phase One) .

Una cosa a tener en cuenta mientras lee esto: esto no es de ninguna manera un ataque a ningún producto específico. Puede comprobarlo usted mismo y averiguar si este efecto se produce con su cámara y su convertidor RAW preferido. La razón por la que estamos usando esto como ejemplo es simplemente porque cayó en nuestro regazo. Dicho esto, ciertamente no nos importaría si SONY y Phase One solucionaran este problema.

Volver a nuestra imagen. Aquí viene la parte desagradable.

Lo primero que veo al abrir el archivo sin procesar en Capture One es el panel de vidrio azul cubierto con una superposición de " sobreexposición ". Con bastante facilidad, cambie la curva en Capture One de "simulación de película normal" a lineal y la indicación de sobreexposición desaparecerá. A continuación, muevo el control deslizante de exposición a +0,66 EV: la sobreexposición no se activa (se necesitan 0,75 EV para que aparezcan puntos de superposición de sobreexposición débiles) . Aquí está el resultado; es claramente diferente en color de lo que tenemos en el JPEG incrustado, a pesar del hecho de que el balance de blancos se dejó en "Como se disparó", pero aún está mal, con un cambio de color a púrpura:

Figura 5_Sony_a6500_DSC00759_CaptureOne_EV066
Figura 5. SONY a6500. RAW en Capture One

Echemos un vistazo más de cerca a la región de interés:

Figura 6_Sony_a6500_Embedded_ACR_CaptureOne_blue_areas
Figura 6. El área azul es la principal región de interés

Entonces, reiteremos los dos puntos que hicimos al principio:

  • En primer lugar, no solo el histograma JPEG es engañoso, sino que la vista previa de color JPEG tampoco puede ser muy útil, ya sea en la cámara o en el monitor de la computadora; verifique cómo es con su cámara;
  • En segundo lugar, por alguna razón, Capture One renderiza las cosas de manera diferente a SONY a pesar de ser la opción "recomendada" y gratuita para los usuarios de SONY. De hecho, no solo de manera diferente, sino también incorrectamente con ciertos tonos.

Primera digresión

Cuando decimos "hacer las cosas de manera diferente", no nos referimos solo a las cosas obvias como los diferentes perfiles de color (transformaciones de color; icc, dcp o algún otro) que se usan en diferentes convertidores y/o diferentes curvas de contraste (tono); no (menores) diferencias en nitidez y / o reducción de ruido: también nos referimos a cómo se aplica el balance de blancos.

De alguna manera, a menudo se olvida que los métodos de cálculo y aplicación del balance de blancos también son diferentes entre varios convertidores, lo que genera diferencias en la reproducción del color.

En muchos casos, vemos que las discusiones sobre el balance de blancos operan con la temperatura de color y los valores de tinte. Sin embargo, el balance de blancos no se mide como temperatura de color y tinte, solo se informa de esta manera. Este informe es solo una aproximación y hay varias formas de derivar dicho informe a partir de los datos de medición del balance de blancos. Si compara las lecturas de temperatura de color y tinte del mismo archivo sin procesar en diferentes convertidores, lo más probable es que encuentre que las lecturas son diferentes. Esto se debe a que los métodos para calcular la temperatura de color (en realidad, la temperatura de color correlacionada, CCT) y el tinte varían, y no existe una forma exacta o estándar de calcular esos parámetros a partir de los datos primarios registrados en la cámara (esencialmente, estos datos primarios son proporciones de rojo a verde y azul a verde para un área neutral en la escena, o para toda la escena,

Considera la Canon EOS 5D Mark II. Para diferentes muestras de cámaras, el ajuste preestablecido para la temperatura de color del flash en los datos EXIF ​​de archivos sin procesar no modificados varía de 6089 K a 6129 K. Al verificar la temperatura de color para una variedad de modelos de cámaras Canon, la temperatura de color para el ajuste preestablecido de Flash varía de 6089 K en Canon EOS 5D Mark II a 7030 K en Canon EOS 60D. Para Canon EOS M3 llega a 8652 K. Mientras tanto, los convertidores de Adobe tienen 5500 K como preajuste de Flash, para cualquier cámara. Si profundiza, las variaciones de tinte también son bastante impresionantes.

Muy a menudo, los informes de temperatura de color y tinte difieren entre los convertidores cuando establece el balance de blancos en los convertidores utilizando el método de "hacer clic en gris".

Algunos convertidores calculan el balance de blancos a partir de la temperatura de color y el matiz, calculados mediante varios métodos; algunos (como Adobe) vuelven a calcular las matrices de transformación de color en función de la temperatura y el tono del color; mientras que algunos aplican los coeficientes de balance de blancos (esas proporciones que mencionamos anteriormente). Obviamente, los neutrales se verán casi iguales, pero el color general cambia según el método en uso y las matrices de transformación de color que tiene un convertidor para la cámara.

Por supuesto, es bastante extraño que Capture One indique sobreexposición en el modo predeterminado. Si uno abriera el archivo sin procesar en RawDigger o FastRawViewer , queda claro que el archivo sin procesar ni siquiera está cerca de la sobreexposición; está fácilmente 1 1/3 EV por debajo del punto de saturación [el valor máximo en la toma es 6316 (rectángulo rojo en el histograma izquierdo), mientras que la cámara puede llegar hasta 16116: log2(16116/6316) = 1,35] . Si la compensación de la exposición se eleva a 1,5 EV, solo se recortan 194 píxeles en los canales verdes (rectángulo rojo en la columna "OE+Corr" del panel de estadísticas de exposición) , como demuestran las estadísticas de FastRawViewer.

parte derecha: RawDigger: histograma RAW detallado, que muestra los valores máximos en los canales" class="fancybox image" rel="gallery">Figura 7_FastRawViewer_RawDigger_Histogram_Sony_a6500
parte izquierda: FastRawViewer: histograma RAW y estadísticas de exposición RAW (con y sin compensación de exposición)
parte derecha: RawDigger: histograma RAW detallado, que muestra los valores máximos en los canales

Por lo tanto, Capture One indica "sobreexposición" sin una buena razón, recortando efectivamente más de 1 parada de rango dinámico de los reflejos en el modo de simulación de película predeterminado y aproximadamente 1/3 EV en modo lineal.

Ahora completamente enganchado, descargué una escena de Imaging Resource que se filmó con el mismo modelo SONY a6500, pero, por supuesto, se utilizó una muestra de cámara diferente. Veamos Capture One incrustado frente a predeterminado, ambos sRGB, incrustado primero:

Figura 8_Sony_a6500_A6500hSLI00100NR0_embedded_JPEG
Figura 8. Sony a6500. A6500hSLI00100NR0.arw, JPEG incrustado

Ahora, a la interpretación de "todos los valores predeterminados" de Capture One:

Figura 9_Sony_a6500_A6500hSLI00100NR0_CaptureOne
Figura 9. Sony a6500. A6500hSLI00100NR0.arw, abierto en Capture One


Me quedo completamente atónito: comparando lado a lado, es fácil no solo ver las diferencias en los amarillos, rojos, azules profundos y morados; pero también el diferente nivel de “planitud” del color; por ejemplo, compare el contraste de color y la cantidad de detalles de color en los hilos:

fila superior: recortes de JPEG incrustado;
fila inferior: recortes de procesamiento de Capture One" class="fancybox image" rel="gallery">Figura 10_Sony_a6500_A6500hSLI00100NR0_crops_from_embeddedJPEG_and-CaptureOne_render
Figura 10. SONY a6500. A6500hSLI00100NR0.arw:
fila superior: recortes de JPEG incrustado;
fila inferior: recortes del renderizado de Capture One

Para la Figura 10 , no sugerimos elegir la mejor ni la más nítida interpretación; simplemente señalando cuán diferentes son las interpretaciones. Mira, por ejemplo, la caja de crayones. SONY JPEG es amarillo muy frío, casi verdoso, como Pantone 611 C, mientras que Capture One lo reprodujo en amarillo cálido, ligeramente rojizo, como Pantone 117C. Franjas rojas en la etiqueta "Fiddler's" de la botella: JPEG: cercano a Pantone 180C, versión de Capture One, similar a Pantone 7418C. Trozo morado oscuro (ocho desde la derecha) : JPEG: Pantone 161C, versión de Capture One: Pantone 269C. Otra parte de la caja con crayones, la tira que se supone que es verde: en el JPEG, es verde apagado, mientras que Capture One lo convirtió en una variedad más pura y saturada.

Finalmente, tomé una escena de DPReview , la puse a través de PatchTool y obtuve el siguiente informe de diferencias de color para el JPEG incrustado frente a la versión de Capture One (utilicé la métrica dE94 porque creo que hay demasiada diferencia para que dE00 sea aplicable) :

Figura 11_Sony_a6500_from_DPReview_DSC00879_Embedded_vs_CaptureOne_dE_report
Figura 11. SONY a6500. DPReview.com DSC00879.arw. JPEG incrustado frente a renderizado de Capture One

La pregunta que nos queda: ¿cómo es que el color es tan diferente y tan equivocado ?

¿Cómo es que diferentes convertidores reproducen el mismo color de manera diferente e incorrecta?
El verdadero problema es una combinación de:

  1. La necesidad de sustituir colores fuera de gama
  2. La falta de uniformidad perceptiva del modelo de color CIE, falta de uniformidad que es especialmente pronunciada cuando se trata de regiones de color azul-púrpura.
  3. El metamerismo del sensor es diferente del metamerismo del observador humano (más sobre esto más adelante).

Debido a esa falta de uniformidad, el ángulo de matiz no es constante, y la sustitución de un color fuera de gama por un color menos saturado del mismo número de matiz (necesitamos disminuir la saturación para encajar en la gama) da como resultado una discontinuidad de matiz . . "Azul se vuelve púrpura" y "púrpura se vuelve azul" son problemas bastante comunes, causados ​​exactamente por las imprecisiones de percepción de este modelo de color. Otro cambio de tono provoca un efecto de "rojo que se vuelve naranja" (sugerimos un ejemplo al comienzo de este artículo). Con ciertos colores (a menudo llamados "colores de memoria") , el problema realmente llama la atención. El problema también provoca un cambio de color percibido con cualquier cambio de brillo.

Una de las cosas que esperamos de la gestión del color es un color consistente y estable. Es decir, si la gestión del color está configurada correctamente, esperamos que el color sea el mismo en diferentes monitores e impresoras, menos las limitaciones de la gama de colores de esos dispositivos de salida.

La administración del color mantiene el color de manera consistente al asignar los números de color en un espacio de color a los números de color en un espacio de color diferente, tomando medidas correctivas cuando el espacio de color de origen y el espacio de color de destino tienen gamas diferentes (esas medidas dependen de la intención colorimétrica declarado para la conversión, y en particular la implementación de esa intención) . En resumen, la gestión del color se rige por un conjunto de reglas estrictas y poco ambiguas.

¿Por qué no disfrutamos de la misma consistencia y estabilidad de color al convertir RAW, incluso cuando se aplica el máximo cuidado para aplicar el balance de blancos correcto?

otra digresión

Si ha estado leyendo detenidamente, es posible que se pregunte por qué no limitamos esto a la consistencia entre convertidores. La respuesta es: un modelo de color utilizado en un convertidor puede ser muy bueno en general, pero no muy adecuado para algunas condiciones de disparo o colores particulares. Peor aún, algunos tipos de luces, como las lámparas de vapor de mercurio utilizadas para el alumbrado público, ciertas bombillas fluorescentes, algunos LED "blancos" tienen deficiencias de espectro de luz tan fuertes que la consistencia del color está fuera de discusión. Curiosamente, algunos modelos de color no tan buenos se comportan mejor cuando se trata de luces de baja calidad.

Y mientras discutimos la consistencia, hay otro problema. La pregunta “¿por qué mis tomas consecutivas de deportes en interiores tienen diferente color/brillo” también se encuentra entre las recurrentes. El motivo de esto no está relacionado con el procesamiento RAW y afecta por igual tanto a RAW como a JPEG: algunas fuentes de luz parpadean. Es decir, para el mismo balance de blancos y exposición establecidos en la cámara, el resultado depende de qué parte del ciclo de luz estés capturando. Por ejemplo, las luces fluorescentes ordinarias tienden a parpadear cada semiperíodo de la frecuencia de alimentación principal. Debido a ese parpadeo, es seguro disparar a la velocidad de obturación = X/(2 *frecuencia de la red eléctrica), siendo X 1, 2, 3,…n, ya que los ciclos completos de bulbo se capturan de esta manera; si es de 60 Hz de red, las velocidades seguras son 1/120, 1/60, 1/40 si lo tienes en tu cámara, 1/30,…, mientras que para 50 Hz es 1/100, 1/50, … Puede probar el parpadeo de las luces, configurando su cámara en un balance de blancos fijo, como fluorescente, y disparando a diferentes velocidades de obturación, digamos, 1/200 y 1/30. Si el color cambia entre los disparos, es el parpadeo. Por supuesto, casi lo mismo es cierto cuando se trata de fotografiar pantallas de monitores y varias pantallas LCD. Si la frecuencia de actualización es de 60 Hz, para obtener resultados uniformes, intente disparar con una velocidad de obturación de 2 *X/60; de nuevo, siendo X 1, 2, 3,… Algunas cámaras modernas ayudan a reducir este problema, sincronizando el inicio de la exposición con el ciclo de luz. Sin embargo, para luces con un espectro no homogéneo que cambia durante el ciclo, no es una solución completa; la velocidad del obturador aún debe configurarse de acuerdo con la frecuencia del parpadeo. y disparando a diferentes velocidades de obturación, digamos, 1/200 y 1/30. Si el color cambia entre los disparos, es el parpadeo. Por supuesto, casi lo mismo es cierto cuando se trata de fotografiar pantallas de monitores y varias pantallas LCD. Si la frecuencia de actualización es de 60 Hz, para obtener resultados uniformes, intente disparar con una velocidad de obturación de 2 *X/60; de nuevo, siendo X 1, 2, 3,… Algunas cámaras modernas ayudan a reducir este problema, sincronizando el inicio de la exposición con el ciclo de luz. Sin embargo, para luces con un espectro no homogéneo que cambia durante el ciclo, no es una solución completa; la velocidad del obturador aún debe configurarse de acuerdo con la frecuencia del parpadeo. y disparando a diferentes velocidades de obturación, digamos, 1/200 y 1/30. Si el color cambia entre los disparos, es el parpadeo. Por supuesto, casi lo mismo es cierto cuando se trata de fotografiar pantallas de monitores y varias pantallas LCD. Si la frecuencia de actualización es de 60 Hz, para obtener resultados uniformes, intente disparar con una velocidad de obturación de 2 *X/60; de nuevo, siendo X 1, 2, 3,… Algunas cámaras modernas ayudan a reducir este problema, sincronizando el inicio de la exposición con el ciclo de luz. Sin embargo, para luces con un espectro no homogéneo que cambia durante el ciclo, no es una solución completa; la velocidad del obturador aún debe configurarse de acuerdo con la frecuencia del parpadeo. para obtener resultados uniformes, intente disparar con una velocidad de obturación de 2 *X/60; de nuevo, siendo X 1, 2, 3,… Algunas cámaras modernas ayudan a reducir este problema, sincronizando el inicio de la exposición con el ciclo de luz. Sin embargo, para luces con un espectro no homogéneo que cambia durante el ciclo, no es una solución completa; la velocidad del obturador aún debe configurarse de acuerdo con la frecuencia del parpadeo. para obtener resultados uniformes, intente disparar con una velocidad de obturación de 2 *X/60; de nuevo, siendo X 1, 2, 3,… Algunas cámaras modernas ayudan a reducir este problema, sincronizando el inicio de la exposición con el ciclo de luz. Sin embargo, para luces con un espectro no homogéneo que cambia durante el ciclo, no es una solución completa; la velocidad del obturador aún debe configurarse de acuerdo con la frecuencia del parpadeo.

Cuando intentamos aplicar la lógica familiar de gestión del color a las cámaras digitales, debemos darnos cuenta de que la gestión del color, de forma un tanto tautológica, gestiona los colores; y no se puede aplicar directamente a los números RAW: para empezar, no hay color en los datos de imagen sin procesar. Los datos de imagen sin procesar son solo un conjunto de mediciones de luz de una escena. Esas medidas (excepto, por ahora, para los sensores Foveon) se toman a través de filtros de color (matriz de filtros de color, CFA) , pero la filtración normal en la cámara (y esto incluye los sensores Foveon)no da como resultado algo que uno pueda asignar inequívocamente a un espacio de color de referencia, por lo tanto, tales medidas no constituyen color. Pero, de nuevo, la gestión del color se ocupa del color, y para que la gestión del color se active, primero debemos convertir las medidas contenidas en los datos de imagen sin procesar a color.

Una digresión más

Existen filtraciones que dan como resultado espacios de color que se pueden asignar a espacios de color de referencia, pero actualmente funcionan aceptablemente bien solo con espectros uniformes, continuos y sin picos; es decir, muchas fuentes de luz y muchos pigmentos de color artificiales causarán metamérica extrema. errores Además de eso, estos filtros tienen una transmitancia muy baja, lo que exige un aumento tal de la exposición que no es aceptable para las cámaras de uso general. Sin embargo, CFA no es el único método de filtración posible, y la filtración de 3 colores tiene alternativas .

¿Entonces, cuál es el problema? ¿Por qué no podemos simplemente... convertir números de datos sin procesar a color? Bueno, podemos, pero no es una conversión inequívoca. Esta ambigüedad es una de las principales razones de las diferencias en el color de salida.

¿Por qué es ambiguo? Porque necesitamos ajustar las medidas realizadas por la cámara en la gama de colores de algún espacio de color "regular": el espacio de conexión del perfil, el espacio de color de trabajo o el espacio de color de salida. Eso es un poco de alquimia que necesitamos aquí; estamos realizando una transmutación entre dos esencias físicas diferentes. Para comprender mejor el problema, debemos hacer una breve excursión a algunos conceptos de la ciencia del color.

Comúnmente se abusa del término “gama de colores”; en muchos casos escuchamos charlas sobre "gama de cámara" y demás. Tratemos de abordar este concepto erróneo porque es importante para el tema en cuestión.

La gama de colores se define como la gama completa de colores disponibles en una salida, ya sea un televisor, un proyector, un monitor, una impresora o un espacio de color de trabajo. En otras palabras, una gama de colores se refiere a espacios de color de trabajo y dispositivos que generan color para la salida. Las cámaras digitales, sin embargo, son dispositivos de entrada. Solo miden la luz, y el concepto de la gama de colores no es relevante para tales mediciones: la gama significa un rango limitado, un subconjunto de algo, pero un sensor responde de alguna manera a todos los colores visibles presentes en una escena. Además, los sensores son capaces de responder al color a niveles de luminancia muy bajos, donde nuestra capacidad para discriminar colores es menor o incluso nula .. Más que eso: el rango de longitudes de onda que registra un sensor es más amplio que el espectro visible y no está limitado por el diagrama de cromaticidad del espacio de color CIE; es por eso que la fotografía UV e IR es posible incluso con una cámara no modificada. Como puede ver, el término gama de colores no se aplica a RAW. Solo el rango de luminosidad relativa de los colores plantea las limitaciones a la respuesta del sensor, y ese es el asunto completamente diferente: el rango dinámico.

Por lo tanto, un sensor no tiene una gama, y ​​no existe un conjunto de reglas único, estándar o incluso preferido que defina cómo asignamos números de datos sin procesar más grandes a más pequeños a números de color, nada como lo que tenemos en la gestión del color. Uno necesita ser creativo aquí, haciendo concesiones para lograr un color agradable, esperado y placentero la mayoría de las veces.

– Bien, ¿y qué sucede cuando configuramos una cámara en sRGB o Adobe RGB? ¡Esos sí tienen gamas!

– Bueno, no sucede nada con los datos sin procesar, solo una etiqueta que indica los cambios de representación preferidos en los metadatos, y los archivos JPEG fuera de la cámara, incluidos los incrustados en las vistas previas de RAW JPEG y los archivos JPEG externos, se procesan en consecuencia. Sea cual sea el espacio de color en el que configure su cámara, solo se ven afectados los datos JPEG y, en consecuencia, el histograma de la cámara. Aquí hay una bola curva: los archivos pseudo-sin procesar, como algunas variantes pequeñas de RAW (sRAW), que de hecho no son sin formato sino JPEG, tienen un balance de blancos aplicado.

El color es una sensación, lo que significa que el color simplemente no existe fuera de nuestra percepción, por lo que necesitamos asignar medidas a la sensación. En otras palabras, necesitamos un puente entre las composiciones de longitudes de onda (junto con sus intensidades) , que registró nuestro ojo, y los colores que percibimos. Tal puente, o mapeo, se denomina función de coincidencia de color, CMF; u observador. Intenta emular la forma en que los humanos procesamos la información que nuestros ojos recopilan de una escena. En otras palabras, los observadores modelan la percepción humana típica, basándose en datos experimentales.

Y aquí viene otra fuente de ambigüedad: las funciones de respuesta espectral (SRF) de los sensores que tenemos en nuestras cámaras no coinciden con la percepción humana típica.

Figura12_LMS_vs_RGB_es
Figura 12. LMS humano frente a cámara SRF

De la Figura 12 , es bastante obvio que no existe una transformación simple que pueda convertir la salida RGB de la cámara a lo que es nuestra percepción. Además, el gráfico anterior se basa en datos con casi la exposición más alta posible (el blanco con una textura tenue está cerca del 92 % del máximo) . Cuando se reduce la exposición (digamos, el parche azul en ColorChecker es aproximadamente 4 pasos más oscuro que el blanco), la tarea de restaurar el tono del azul oscuro saturado se vuelve más problemática porque la curva roja se aplana mucho y los pequeños cambios en la respuesta en rojo ahora son comparables al ruido, pero necesitamos saber ese rojo para identificar el tono necesario del azul. Ahora, supongamos que el exposímetro de la cámara, el histograma de la cámara y/o los “parpadeos” lo inducen (equivocadamente) a subexponer la escena en una parada; y seguramente hay azules más oscuros en la vida real que ese parche azul en el ColorChecker… Así es como el color se vuelve inestable, y así es como depende de la exposición.

Esta diferencia entre SRF y LMS conduce a lo que se conoce como error metamérico: combinaciones de longitud de onda/intensidad que parecen iguales para un ser humano (es decir, las reconocemos como si tuvieran el mismo color) que una cámara graba como diferentes y separadas, con diferentes números. Este es especialmente el caso de los colores en ambos lados de la escala de luminosidad, colores oscuros y colores claros; así como con colores pastel poco saturados, cercanos a los neutros. También sucede lo contrario; los colores que se registran de la misma manera en los datos sin procesar se ven diferentes para un ser humano. El error metamérico no se puede corregir con ninguna matemática, ya que la información espectral que caracteriza la escena está ausente en el escenario cuando tratamos con la materia prima. Esto hace que la reproducción de color exacta y no ambigua sea imposible.

Otro más

Lo que se sigue de aquí es que en lugar de hablar de algunas deficiencias vagas de "reproducción de color del sensor", podemos operar con error metamérico, comparando sensores sobre este parámetro definido. Por cierto, esta característica se puede calcular independientemente de cualquier convertidor sin formato, como una característica de la cámara en sí; pero también se puede usar para evaluar mapeos producidos por convertidores sin formato. Sin embargo, medir el error metamérico al disparar a los objetivos es un método limitado. Para citar la norma ISO 17321-1:2012, el método basado en disparar algunos objetivos (la norma se refiere a él como método B) “solo puede proporcionar datos de caracterización precisos en la medida en que las características espectrales del objetivo coincidan con las de la escena o original para ser fotografiado”, es decir, es principalmente adecuado para trabajos de reproducción en estudio.

Para reiterar: lo que sigue inmediatamente de los sensores que no tienen gamas y sus funciones de respuesta espectral difieren de lo que tenemos como nuestro mecanismo de percepción es esto: los datos sin procesar deben interpretarse para ajustarse a la salida o la gama del espacio de color de trabajo (sRGB, Adobe RGB, impresora perfil…) , y se debe aplicar alguna transformación aproximada entre las funciones de respuesta espectral de un sensor y el observador humano.

Hay varias formas de realizar una transformación aproximada de este tipo, según las restricciones y los supuestos implicados. Algunas de esas formas son mejores que otras. Por cierto, "mejor" debe definirse aquí. Cuando se trata de "reproducción óptima", puede ser una "coincidencia de apariencia", una "coincidencia colorimétrica" ​​o algo intermedio. Es decir, "mejor" es bastante subjetivo, es una cuestión de interpretación y, con bastante frecuencia, es una decisión estética por parte de un fabricante de cámara o convertidor RAW, especialmente si uno está usando la configuración predeterminada fuera de cámara o fuera de cámara. -convertidor de color. En realidad es lo mismo que con la película; La reproducción precisa del color nunca fue un objetivo para la mayoría de las emulsiones populares, pero sí un color agradable.
Anteriormente, mencionamos que hay dos razones principales para las diferencias de color de salida. Discutimos la ambigüedad y ahora pasemos a la segunda, el procedimiento y la calidad de las medidas que se utilizan para calcular las transformaciones de color para la asignación de datos sin procesar a datos de color.

Imagina que estás fotografiando uno de esos objetivos de color que usamos para crear perfiles, como un ColorChecker. ¿Cuál es la luz que vas a utilizar para la toma? Parece lógico utilizar el iluminante que coincida con el que se basará el futuro perfil. Sin embargo, los espacios de color estándar se basan en iluminantes sintéticos, en su mayoría D50 y D65 (excepto dos: CIE RGB, basado en el iluminante sintético E, y NTSC, que se basa en el iluminante C que difícilmente se puede usar para iluminación de estudio; uno necesita un filtro compuesto por 2 soluciones a base de agua para producirlo) . Es bastante problemático obtener directamente los datos de la cámara para los iluminantes de la serie D simplemente porque son iluminantes sintéticos y es muy difícil, si es posible, encontrar luces de estudio que coincidan con la precisión suficiente, por ejemplo, el espectro D65.

Para compensar la falta de coincidencia entre el iluminante real en el estudio y el iluminante sintético, el software de creación de perfiles debe recurrir a una de las transformaciones aproximadas de iluminación de estudio a iluminantes estándar. La precisión de dicha transformación es muy importante, y la propia transformación a menudo se basa no solo en la precisión, sino también en la calidad de la percepción. Transforma el trabajo en rangos bastante estrechos; no espere disparar a un objetivo bajo una luz incandescente y producir un buen perfil basado en D65. Este, por supuesto, no es el único problema responsable de las diferencias de color al obtener datos de origen para calcular las transformaciones de color, otros son problemas con la configuración de la luz y la cámara, así como la elección de objetivos y la precisión de los archivos de referencia de objetivos.

Esto no quiere decir de ninguna manera que disparar ColorChecker no produzca resultados utilizables. Proporcionamos un ejemplo de su utilidad hacia el final de este artículo. Otra consideración más (pero menor, en comparación con las dos anteriores) es que la ciencia del color es imperfecta, especialmente cuando se trata de describir la percepción humana del color (¿recuerdas a los observadores que mencionamos anteriormente?) . Algunos fabricantes están utilizando modelos de percepción humana más recientes/más fiables, mientras que otros pueden quedarse con modelos más antiguos y/o utilizar métodos de cálculo menos precisos.

En resumen, las interpretaciones difieren según la comprensión del fabricante del color "agradable", las limitaciones de velocidad de procesamiento, la calidad de los datos que se usaron para calcular las transformaciones de color necesarias, el tipo de transformaciones (pueden ser cualquier cosa, desde simples lineales). matriz a funciones 3D complejas) , la forma en que se calcula y aplica el balance de blancos, e incluso las consideraciones de ruido (las transformaciones de matriz suelen ser más suaves en comparación con las transformaciones que emplean tablas de búsqueda complejas). Todos estos factores juntos forman lo que informalmente se llama el "modelo de color". Dado que los modelos de color son diferentes, el color de salida puede ser bastante diferente entre diferentes convertidores, incluido el convertidor integrado en la cámara que produce archivos JPEG fuera de la cámara. Por cierto, puede ver que no siempre es el caso de que un convertidor en la cámara produzca el color más agradable o preciso.

Y por lo tanto, sentimos que hemos probado ambas afirmaciones de lo que hemos hecho al comienzo de este artículo:

  1. Los archivos JPEG fuera de la cámara, incluidas las vistas previas en la cámara, no se pueden usar implícitamente, sin ninguna verificación, para evaluar el color (como ya sabemos, el histograma en la cámara también es engañoso);
  2. No es necesario que el convertidor recomendado por el fabricante de la cámara esté ajustado específicamente para que coincida con el JPEG fuera de la cámara.
  3. Entonces, definitivamente sabemos cómo nos sentimos al respecto, pero ¿qué podemos hacer al respecto?

    ¿Qué podemos hacer para asegurarnos de que nuestro convertidor RAW reproduzca los colores cerca de los colores que vimos?

    Un perfil de cámara personalizado puede ayudar con estos problemas. Calculamos el perfil de la cámara para SONY a6500, según los datos RAW extraídos con RawDigger de DPReview Studio Scene, y usamos este perfil con nuestro convertidor RAW preferido para abrir el ARW de origen. Así es como obtuvimos la parte correcta en la siguiente figura:

    JPEG incrustado (izquierda) versus renderizado, usando un perfil personalizado, con el azul muy cerca del color real en la escena (derecha)." class="fancybox image" rel="gallery">Figura 13_Sony_a6500_embedded_vs_close_color
    Figura 13. SONY a6500.
    JPEG incrustado (izquierda) frente a renderizado, usando un perfil personalizado, con el azul muy cerca del color real en la escena (derecha).

    Aquí está el informe de precisión del perfil:

    Figura 14_Sony_a6500_Perfil_DeltaE
    Figura 14. SONY a6500. Informe de precisión del perfil

    Mirando el informe de precisión del perfil en la Figura 14 , uno puede notar que aunque la precisión es bastante buena, los rojos generalmente se reproducen con menos error en comparación con los azules, y que los parches neutrales más oscuros E4 y D4 muestran un error mayor que los demás. La razón principal detrás de la irregularidad en la reproducción de neutrales sería que me vi obligado a usar una referencia genérica de ColorChecker, ya que DPReview no ofrece la referencia para el objetivo que están disparando. La creación de perfiles ofrece una aproximación, un mejor ajuste, y es posible que los parches E4 y D4 en el objetivo que usan se desvíen de la referencia genérica de una manera bastante significativa. El sitio web de BabelColor ofrece una muy buena comparación en cuanto a la variación de los objetivos .

    El desequilibrio entre el error en rojos y el error en azules se puede atribuir a 2 factores, principalmente, el primero es el uso de la referencia genérica que acabamos de mencionar, y el segundo es el metamerismo de sensibilidad que discutimos anteriormente en el artículo.

    También hay algunos factores secundarios a tener en cuenta. Es difícil hacer un buen perfil si no se mide la distribución de potencia espectral de la iluminación del estudio; los destellos y el deslumbramiento pueden reducir significativamente la calidad del perfil, al igual que la falta de uniformidad de la luz, ya sea solo la intensidad o una composición espectral diferente de las luces a los lados del objetivo. Sin embargo, el modo de campo plano en RawDigger puede ayudar a solucionar la falta de uniformidad de la luz, consulte el capítulo "Cómo compensar la iluminación del objetivo no uniforme" en nuestro artículo Obtención de datos del dispositivo para la creación de perfiles de color . Puede usar archivos CGATS generados por RawDigger con ArgyllCMS , MakeInputICC, nuestra GUI gratuita sobre ArgyllCMS ( versión de Windows, versión de OS X ) o basICColorEntrada 5 (incluye prueba completamente funcional de 14 días) .

    Como podemos ver, ColorChecker ciertamente tiene un buen valor cuando se trata de crear perfiles de cámara. El color se vuelve más estable, más predecible y se mejora el color general. Incluso cuando se desconocen las medidas exactas del objetivo y las medidas de luz, ColorChecker aún permite crear un perfil de cámara robusto, ocupándose de la mayoría de los giros de color y permitiendo una mejor reproducción del color. Por supuesto, puede utilizar ColorChecker SGu otros objetivos de cámara dedicados, pero debido a su naturaleza semibrillante, puede encontrarlos más difíciles de disparar. Entonces, antes de pasar al siguiente nivel, usando objetivos más avanzados, calcule primero su configuración de disparo para tener la menor cantidad de destellos posible, use un espectrofotómetro para medir su objetivo ColorChecker y las luces de su estudio; a menudo resulta ser más beneficioso en términos de calidad del perfil de color que saltar a usar un objetivo complejo.

    Me gustaría agradecer a Thom Hogan y Andrew "Digital Dog" Rodney por su aporte.

Subir