CAPITULO 5
LA EVOLUCIÓN HACIA EL HDR

Uno de los retos imposibles en la corrección de color profesional es asegurar que nuestras creaciones se vayan a ver igual en todas las pantallas del planeta. Es un problema que compartimos con otros amigos como los editores de sonido. Con la llegada de los primeros paneles HDR domésticos llegó una complejidad adicional: no eran capaces de llegar a los ya famosos 1000 nits de brillo.

Hago mal en hablar en pasado sobre esto: la inmensa mayoría de televisores HDR de la
actualidad son incapaces de llegar a 1000 nits. Sólo algunas honrosas excepciones de  muy alta gama lo consiguen. Pero la tecnología avanza y algo debíamos de intentar para combatir este desasosiego, y llegó en forma de metadatos. Esa información que se añade a los archivos de video digital y que guardan más de un secreto.

Concretamente, tenemos que mencionar dos valores llamados MaxCLL y MaxFall. ¿De qué tratan? Bien, supongamos que hemos terminado la corrección de color en HDR de una película, en este punto, las herramientas de postproducción de color HDR nos permiten analizar todo el timeline en busca de dos datos muy concretos: el valor en nits del píxel más brillante y la media en nits de toda la película.

Por ejemplo, el pixel más brillante podría tener un valor de unos 950 nits y la media podría ser 400, Esto significa que en el máster habrá un valor MaxCLL de 950 y un MaxFall de 400. A la hora de reproducir el archivo, el televisor detectará el valor BT.2020 en la metadata y activará el modo HDR, justo después verá ambos números y hará un mapa de tonos. Es decir, que si ese televisor tiene un brillo máximo real de 700 nits, retocará la señal de video a tiempo real de manera proporcional, de modo que ese pixel más brillante lo hará a 700 y el resto bajará de manera proporcional pero ayudados del MaxFall para que no decaiga el brillo por completo. El resultado,
en teoría, es que por un lado no habrá clipping en los valores por encima de 700, y el segundo, hacernos creer que el colorista usó precisamente ese televisor para hacer la corrección de color.

En este punto, es probable que alguno de vosotros esté viendo el punto débil de esta ingeniosa idea: un único valor de brillo máximo y brillo medio es poco. Y tenéis razón, en una película habrá escenas de día, de noche, interiores, exteriores… Pueden pasar muchas cosas en dos horas.

Es aquí donde aparecen nuestros amigos de Dolby con una solución obvia: necesitamos valores individuales para cada fotograma. Y ya puestos, añadamos un tercer valor de brillo mínimo. Esto no podía fallar, y mucho menos cuando Dolby está detrás.

Así que, llegados a este punto, tenemos dos soluciones de metadatos. Una primera a la que llamamos “estática”, porque es única y constante en toda la pieza, y otra dinámica”, porque se adapta a la realidad no ya de cada escena, sino de cada fotograma. Bien, pues a cada sistema los conoceréis mejor por sus nombres comerciales: HDR10 y Dolby Vision. Ambos sistemas son por dentro iguales: espacio de color BT.2020, curva PQ. La diferencia está justamente aquí, en la solución de adaptación que hace la metadata del archivo.

Y la cosa no acaba aquí. Por un lado, existe la solución Dolby IQ que adapta este mapa de tonos no sólo teniendo en cuenta el potencial real del panel, sino también la luz ambiente. Samsung, en colaboración con Amazon y algunos otros ha desarrollado HDR10+ con metadata dinámica, e incluso algunos paneles son capaces de coger una señal con metadata estática, analizarla y convertirla a dinámica a tiempo real con resultados más que aceptables.

En próximos artículos trataremos cómo crear esta metadata como parte del flujo de trabajo de postproducción HDR.