CAPITULO 8
LA EVOLUCIÓN HACIA EL HDR

Ahora que ya tenemos configurado nuestro sistema DaVinci Resolve Studio en HDR hablemos sobre las herramientas que podemos utilizar. Aunque no podemos entrar en profundidad en esta ocasión, sí que os diré que para una primera corrección primaria se recomienda que uséis o las ruedas LOG o las nuevas ruedas HDR. Las primeras os darán un resultado de contraste más cinemático y las segundas os darán más precisión al trabajar con las zonas oscuras de 0 a 1 nit y las luces altas y especulares a partir de 300 nits. Las ruedas primarias Lift, Gamma y Gain en teoría no son adecuadas porque están diseñadas para 709, pero pueden ser interesantes a la hora de crear un look de color.

En cuanto a las herramientas secundarias, funcionan como siempre, e incluso algunas pueden volverse más interesantes, como aquellas que permiten trabajar la Luma.

Una vez que tengáis el proceso acabado, toca analizar la metadata. En Project  Settings>Color Management encontraréis dos casillas llamadas “Dolby Vision” y “HDR10+. En función de cuál sistema queráis, activamos la casilla correspondiente.

En el caso de HDR10+ tendremos que ir al menú superior Color>HDR10+ y ahí podemos pedir que analice o todos los clips o sólo algunos. Cuando acabe el análisis podréis ver la marca HDR bajo cada uno de los clips en el timeline de miniaturas.

Una vez acabéis el análisis notaréis cierto cambio en el color, eso es porque el sistema activa automáticamente el Tone Mapping a SDR. Esta técnica nos ofrece crear una versión SDR a partir del máster HDR que estamos realizando, aunque en el caso de HDR10+, actualmente no ofrece unos resultados aceptables y ni siquiera tenemos la opción de ajustar esta transformación, por lo que, en la actualidad, recomiendo desactivar dicha opción.

Dolby Vision, por contra, es un sistema mucho más avanzado, completo y con mejores
resultados. La activación misma del sistema ya nos da más opciones, ya que nos pide indicar cuál es el monitor de máster HDR que vamos a utilizar. En el caso de una EIZO PROMINENCE, el ajuste debe ser una de las dos a 1000 nits. Si el output será P3, se usará dicha opción y en el monitor elegiremos PQ DCI. Si por el contrario trabajaremos en Rec.2020 limitado a P3, usaremos la otra opción en Resolve y en el monitor escogeremos PQ 2100.

Es importante señalar que Dolby Vision requiere un flujo de señal de video 4:4:4 Full 12 bits. Afortunadamente, el monitor es capaz de recibir esta señal, pero debemos configurar estos aspectos en Video Monitoring en Resolve, y por supuesto, se asume que en este flujo de trabajo el material es 4:4:4.

Una vez que hayamos hecho el máster HDR, nos iremos a la sección Dolby Vision que
encontraremos en la página de Color de Resolve. Aquí encontraremos un nuevo concepto, el Target Display, aquí en realidad hace referencia a cuál va a ser la segunda configuración de monitor para la cual vamos a realizar el Trim Pass. Es decir, nosotros trabajaremos en HDR y después el sistema Dolby Vision nos ofrecerá, a través de la creación de los metadatos, una segunda. masterización con otros parámetros. Normalmente, lo que hacemos aquí es aprovechar esta opción para generar una versión SDR a 100 nits, por lo que el ajuste predeterminado en esta sección ya sería correcta. Además, Resolve nos permitiría tener dos monitores simultáneos, por ejemplo un PROMINENCE y un 319x y poder visualizar la versión HDR y la SDR al mismo tiempo.
Si por otro lado queremos compaginar el máster en PROMINENCE y una visualización en un televisor HDR, podríamos utilizar por ejemplo alguno de los ajustes a 600 nits, ya que los televisores actuales suelen rondar esta cifra.

Dolby Vision es mucho más que esto, y en el próximo capítulo ahondaremos más en el detalle de este fantástico sistema.

CAPITULO 7
LA EVOLUCIÓN HACIA EL HDR

DaVinci Resolve se ha convertido en toda una revolución, sobretodo por la existencia una versión gratuita muy muy generosa, pero para esta ocasión vamos a tener que usar la licencia Studio si queremos trabajar en HDR.

Lo primero que tenemos que configurar en cuanto a HDR es la salida de video. La conexión SDI debe ser 4:4:4 y la profundidad de color ha de ser mínimo 10 bit. En cuanto a los niveles de datos o Data Levels, depende: si vamos a realizar HDR10 o HLG lo configuraremos en “Video”, si es para Dolby Vision elegiremos “Full”. Esto es porque Dolby Vision trabaja en RGB puro, mientras que los otros funcionan con la clásica matriz de video YCbCr. En el monitor, por supuesto, tendremos que hacer lo propio, aunque los EIZO saben captar perfectamente cuál es el tipo de señal que le llega. Por último, si la conexión es HDMI, se debe activar una casilla final que permite la entrega de metadatos HDR a través de este sistema.

Pasamos al punto más importante: la gestión de color. El material que tengamos, sea o no RAW, se ha de transformar y normalizar en HDR, así que tendremos que utilizar alguno de los dos sistemas de gestión de color de DaVinci Resolve. Podéis elegir entre DaVinci YRGB Color Managed o ACES cct.

Ambos sistemas funcionan de manera muy parecida: nosotros le decimos cuál es la norma que queremos, el sistema lee la metadata de cada fichero para saber con qué cámara se ha grabado y el aplica la transformación pertinente. Ambos sistemas son muy precisos y no entraremos aquí a debatir sobre ellos, aunque en ambos casos nos  podemos encontrar con el mismo problema: que la metadata de los archivos no incluyan la información que necesitan, en cuyo caso tendremos que indicarlo manualmente.

Otra situación puede ser que la cámara no esté soportada por estos sistemas. Aquí hay que descartar el uso de LUT’s. Lo sentimos, no funcionan en HDR. Y esto es muy importante, porque significa que en el set de rodaje tampoco podremos usar LUT’s para que el director tenga una estimación visual de cómo quedará el plano. La señal deberá pasar por un sistema de gestión de color -por ejemplo, una máquina con DaVinci Resolve Studio-, antes de llegar al combo.

Aunque DaVinci Resolve 17 Studio incorpora un nuevo catálogo de presets tanto para SDR como para HDR, se recomienda revisar siempre la configuración de estos presets en el caso de HDR con los siguientes datos:

  • Input Color Space: el que corresponda o dejarlo sin uso si el original es RAW.
  • Timeline Color Space: lo habitual a día de hoy es P3-D65 y ST2084 1000 nits. Con ST2084 nos estamos refiriendo en realidad la curva PQ. Encontraréis opciones para 1000, 2000 y 4000 nits. En cuanto a P3-D65, recordad lo que hemos comentado en artículos anteriores: no podemos aún alcanzar un mastering en  BT.2020, de modo que ponemos esta opción en Timeline Color Space para limitar la acción de las herramientas de DaVinci a este espacio de color.
  • Output Color Space: esto va a diferir en función del tipo de HDR que nos pidan y del tipo de cliente. Si nos piden HLG, la opción será 2100 HLG; si es para HDR10, puede que tengamos que configurarlo en Rec. 2020 ST2084 1000 nits o P3-D65 ST2084 1000 nits. En el caso de Dolby Vision, lo más probable es que sea lo  segundo.

Por último, debemos activar los scopes en modo HDR para que veamos la escala de 0 a 10.000 nits en caso de PQ o de 0 a 1000 en caso de HLG.

Con esto, YA podemos empezar a trabajar en HDR. Pero sobre esto hablaremos en el próximo artículo.

CAPITULO 6
LA EVOLUCIÓN HACIA EL HDR

Hablar sobre qué es HDR es una cosa…, y hacerlo es otra. Conseguir HDR auténtico requiere que todos los elementos del flujo de producción y postproducción estén encaminados a este objetivo.

Empecemos por lo elemental: la captación. Los sensores digitales miden su rango dinámico en pasos de exposición. Para HDR, se requiere que ese sensor, en la configuración de ISO que se utilice, sea capaz de registrar más de 12 pasos. Esta información debe permanecer intacta en almacenamiento, por lo que el códec debe ser mínimo RAW con una profundidad de color de 12 bit, es decir, 4096 tonos para cada canal primario R, G y B.

En el caso de no poder grabar en RAW tenemos opciones siempre y cuando se haga una
codificación logarítmica a partir del registro lineal original del sensor y que el códec tenga una profundidad de color mínima de 10 bit. La logarítmica se encargará de contener todo el rango dinámico aunque la profundidad de color sea menor. Si se generan transcodificaciones a partir del original, el códec intermedio debe tener siempre un muestreo de 4:4:4 para no perder nada de resolución ni de rango dinámico.

Por supuesto, si nuestra intención es crear para HDR, el monitor del set debería serlo, así que nos toca hablar de qué características debe cumplir un monitor para que, además de decir que es HDR, sea considerado apto para mastering profesional HDR. Por una parte, tiene que cumplir evidentemente con las normas, es decir, debe ser capaz de identificar una señal BT.2020, debe ser capaz de reproducir por lo menos el espacio P3 en su totalidad y debe tener un punto blanco de 1000 nits reales, sin forzar negros ni técnicas extrañas. Además, el panel debe tener una profundidad mínima de 10 bit. En cuanto al ratio de contraste, si es para HDR10 o para HLG, se pide un mínimo de 100.000:1, si es para Dolby Vision se pide 200.000:1. El actual modelo EIZO PROMINENCE 3146 tiene un ratio de 1.000.000:1.

En lo relativo a la máquina de trabajo, no creáis que hace falta algo exageradamente potente por el simple hecho de trabajar en HDR. Lo realmente exigente puede ser trabajar con ciertos codecs RAW o ciertos formatos intermedios como EXR, pero no por pretender un máster de color en HDR. Ni siquiera las herramientas de mastering de Dolby son especialmente demandantes. Lo que sí vais a necesitar es una interfaz I/O compatible con las señales HDR. Es decir, nosotros sacaremos una señal de video pura desde nuestra máquina a la pantalla a través de un periférico, y éste ha de ser capaz de interpretar correctamente tanto el gamut como la curva y los metadatos.

La gran parte del software de postproducción profesional actual está ya preparado para HDR, pero cada uno tiene su propio estilo de configuración y workflow. En el siguiente artículo trataremos este tema con DaVinci Resolve Studio, el líder actual en esta materia.

CAPITULO 5
LA EVOLUCIÓN HACIA EL HDR

Uno de los retos imposibles en la corrección de color profesional es asegurar que nuestras creaciones se vayan a ver igual en todas las pantallas del planeta. Es un problema que compartimos con otros amigos como los editores de sonido. Con la llegada de los primeros paneles HDR domésticos llegó una complejidad adicional: no eran capaces de llegar a los ya famosos 1000 nits de brillo.

Hago mal en hablar en pasado sobre esto: la inmensa mayoría de televisores HDR de la
actualidad son incapaces de llegar a 1000 nits. Sólo algunas honrosas excepciones de  muy alta gama lo consiguen. Pero la tecnología avanza y algo debíamos de intentar para combatir este desasosiego, y llegó en forma de metadatos. Esa información que se añade a los archivos de video digital y que guardan más de un secreto.

Concretamente, tenemos que mencionar dos valores llamados MaxCLL y MaxFall. ¿De qué tratan? Bien, supongamos que hemos terminado la corrección de color en HDR de una película, en este punto, las herramientas de postproducción de color HDR nos permiten analizar todo el timeline en busca de dos datos muy concretos: el valor en nits del píxel más brillante y la media en nits de toda la película.

Por ejemplo, el pixel más brillante podría tener un valor de unos 950 nits y la media podría ser 400, Esto significa que en el máster habrá un valor MaxCLL de 950 y un MaxFall de 400. A la hora de reproducir el archivo, el televisor detectará el valor BT.2020 en la metadata y activará el modo HDR, justo después verá ambos números y hará un mapa de tonos. Es decir, que si ese televisor tiene un brillo máximo real de 700 nits, retocará la señal de video a tiempo real de manera proporcional, de modo que ese pixel más brillante lo hará a 700 y el resto bajará de manera proporcional pero ayudados del MaxFall para que no decaiga el brillo por completo. El resultado,
en teoría, es que por un lado no habrá clipping en los valores por encima de 700, y el segundo, hacernos creer que el colorista usó precisamente ese televisor para hacer la corrección de color.

En este punto, es probable que alguno de vosotros esté viendo el punto débil de esta ingeniosa idea: un único valor de brillo máximo y brillo medio es poco. Y tenéis razón, en una película habrá escenas de día, de noche, interiores, exteriores… Pueden pasar muchas cosas en dos horas.

Es aquí donde aparecen nuestros amigos de Dolby con una solución obvia: necesitamos valores individuales para cada fotograma. Y ya puestos, añadamos un tercer valor de brillo mínimo. Esto no podía fallar, y mucho menos cuando Dolby está detrás.

Así que, llegados a este punto, tenemos dos soluciones de metadatos. Una primera a la que llamamos “estática”, porque es única y constante en toda la pieza, y otra dinámica”, porque se adapta a la realidad no ya de cada escena, sino de cada fotograma. Bien, pues a cada sistema los conoceréis mejor por sus nombres comerciales: HDR10 y Dolby Vision. Ambos sistemas son por dentro iguales: espacio de color BT.2020, curva PQ. La diferencia está justamente aquí, en la solución de adaptación que hace la metadata del archivo.

Y la cosa no acaba aquí. Por un lado, existe la solución Dolby IQ que adapta este mapa de tonos no sólo teniendo en cuenta el potencial real del panel, sino también la luz ambiente. Samsung, en colaboración con Amazon y algunos otros ha desarrollado HDR10+ con metadata dinámica, e incluso algunos paneles son capaces de coger una señal con metadata estática, analizarla y convertirla a dinámica a tiempo real con resultados más que aceptables.

En próximos artículos trataremos cómo crear esta metadata como parte del flujo de trabajo de postproducción HDR.

CAPITULO 4
LA EVOLUCIÓN HACIA EL HDR

La PQ viene a solucionar un mal heredado durante mucho tiempo, pero en el fondo plantea un problema similar: los contenidos en PQ no se pueden visualizar en una pantalla que no sea HDR. Las imágenes se verán apagadas, lavadas, sin contraste…, porque es una curva logarítmica.

Mismo problema pero ampliado en televisión: supondría duplicar toda la emisión, un canal para SDR y otro para HDR. O que el contenido para HDR fuese exclusivo. Y en cualquier caso, el ancho de banda necesario para HDR es muy superior al SDR. Si además le añadimos la resolución UHD, se convierte en casi inviable.

Con este panorama, la BBC británica y la NHK japonesa -con algunas más-, plantearon una curva híbrida, es decir que fuese SDR y HDR a la vez. A esto lo llamamos Hybrid Log Gamma o HLG. Su funcionamiento es bien ingenioso: desde su valor mínimo hasta un punto aproximado al gris 18%, la curva es igual para ambos sistemas. A partir de este punto se genera una divergencia matemática estable hasta alcanzar el punto blanco con dos destinos, uno a 100 nits y otro a 1000.

¿El resultado? Un televisor SDR verá una curva gamma 2.4 tradicional mientras que el HDR verá la continuación de la señal hacia los 1000 nits. ¿Ventajas? La mencionada, tenemos una única señal para ambos sistemas. ¿Inconvenientes? Pues unos cuántos. Por un lado, los niveles de negro son iguales, y esto es una lástima. Tendemos mucho a hablar y a pensar mucho en los blancos cuando tratamos el tema del HDR y muy poco acerca de las sombras y los negros, exactamente iguales en importancia. La curva PQ es capaz de alcanzar un nivel de negros muy profundo, y nos permite establecer diferencias más claras en el rango de 0 a 1 nit. Si además tenemos la suerte de reproducirlo en un panel OLED o un LED con un buen control de negros por zonas y un ratio de contraste amplio -el mínimo considerado para HDR es 100000:1-, la sensación es sobrecogedora.

En cuanto a los blancos tenemos un problema similar: no puede pasar de un límite teórico de 1200 nits. Esto quiere decir que la norma HLG se verá superada sin remedio cuando en unos años demos el siguiente paso hacia estandarizar los 2000 o los 4000 nits.

Una ventaja adicional del HLG es que es más fácil de producir en cámara. En el caso de la curva PQ, es algo que se crea generalmente en postproducción a partir de la logarítmica original de la cámara. La curva HLG, precisamente por su semejanza a la gamma 2.4, resulta más fácil sacar de cámara, y por tanto, que podamos por ejemplo ejecutar emisión en directo en HDR.

Como mención final, la curva HLG viene acompañada por su propio espacio de color, BT.2100. No hay motivo de alarma, es un espacio prácticamente idéntico al BT.2020 y de hecho se puede masterizar una pieza de video en BT.2020 + HLG sin  inconvenientes.

Con esto acabamos una parte importante del mundo HDR, pero estamos lejos de acabar. Hay un tercer actor en todo esto que es tan o más relevante que todo lo anterior. Me estoy refiriendo a los metadatos. Pero esto será en el próximo artículo.

CAPITULO 3
LA EVOLUCIÓN HACIA EL HDR

La percepción de la visión humana es logarítmica. ¡Qué frase más académica! Llevemos esto al mundo de los mortales. Imaginaos que estáis observando un objeto que emite luz y lo percibís como tal. Ahora, alguien enciende al lado un segundo objeto que brilla al doble de intensidad. ¿Lo percibiréis como más brillante? Por supuesto, pero no lo detectaréis que brilla “el doble”. En función de la cantidad de luz, la diferencia entre objetos no se percibe en la misma proporción. Es decir, nuestra percepción no es lineal.

Con el fotoquímico pasaba exactamente igual, de modo que al crear una versión digital del negativo creamos una logarítmica digital. De ahí nacen los famosos Cineon LOG, Arri LOG, RED LOG… todas son señales logarítmicas con un rango dinámico muy amplio.

La curva PQ (Percentual Quantization) también es logarítmica, porque como decíamos en el inicio de esta serie de artículos, nuestra referencia última, nuestra meta, es alcanzar la visión humana en términos de calidad y precisión. Esta curva ya no corrige un defecto, sino que ofrece un rango tonal con un astronómico punto blanco de 10.000 nits.

Hay disparidad de opiniones sobre cuál es el valor de brillo máximo que el ojo puede percibir. Hay estudios que lo datan entre 12.000 y 20.000 nits. La curva PQ es igualmente ambiciosa: 10.000 nits es muchísimo brillo. Tanto, que al igual que nos ocurría con el espacio BT.2020 es imposible de alcanzar con la tecnología actual. Aunque a la fecha de este artículo hay fabricante que afirman tener paneles con un -muy discutible- brillo máximo de 8000 nits, en cuestión de postproducción profesional la cifra más habitual es 1000 nits.

E incluso así, 1000 nits es mucho brillo, y representa un reto para coloristas y demás amigos del gremio. Y todo un problema para la industria de la energía, es decir, una pantalla a 1000 nits consume mucha energía. Si lo multiplicamos por todos los televisores de cada hogar, cabe plantearse si realmente el parque eléctrico sería capaz de soportarlo.

Por suerte o por desgracia, la implantación del HDR en entornos domésticos es algo lenta aún, y en muchos de los hogares donde la hay, no existe un consumo interesante de contenidos HDR, ya que en la actualidad sólo se ofrecen a través de ciertos servicios de streaming premium y el cada más vez cuestionado formato físico, a través del nuevo Blu-Ray 4K.

Dicho esto, entra en batalla una segunda curva, la llamada HLG o Hybrid Log Gamma, a la cual dedicaremos nuestro siguiente artículo.

CAPITULO 2
LA EVOLUCIÓN HACIA EL HDR

En el anterior artículo hablamos del contexto histórico en nuestra industria que nos ha llevado al momento actual y es ahora cuando vamos a entrar más en la materia técnica. La norma SDR, fundamentada en el espacio BT.709 y en la curva de gamma 2.4 cede el testigo a dos nuevos elementos de última generación.

Por un lado tenemos un nuevo y flamante espacio de color llamado BT.2020. Este nuevo espacio cubre un rango de color mucho más amplio que el anterior,  aproximadamente un 70% del espectro de color visible. Sí, aún nos queda un 30% para cubrir con una futura evolución, pero os aseguro que ese 70% que representa el BT.2020 es todo un reto: no existe a la fecha de este artículo la tecnología para reproducir dicho espacio en su totalidad.

¿Para qué sirve crear una norma que no puedes cumplir? Bueno, es una cuestión temporal. Las normas de difusión se diseñan para que duren mucho tiempo, todo el que sea posible. Los fabricantes de televisores quieren que cambies ese trasto que tienes en el salón y vayas ahora mismo a por un nuevo panel, pero al mismo tiempo saben que no pueden abusar y marearnos con cambios de normas a corto plazo, la industria no lo resistiría.

Y si no podemos trabajar en BT.2020. ¿Cómo se hace el HDR actual? Tiramos de ingenio. Entre los espacios 709 y 2020 existe un tercer espacio llamado DCI-P3 que es la norma para salas de cine. Aunque las pantallas actuales no sean capaces de alcanzar todo el 2020, si que lo hacen muy bien con el P3, así que configuramos las herramientas de postproducción de manera que, aunque el archivo se “legalmente” BT.2020, nos hemos asegurado de que ninguno de los valores de color exceda el area del espacio P3, que queda totalmente en el interior del primero. Es como una matrovska rusa, es un gamut dentro de otro gamut. El exterior es el “legal” y el interior es el práctico.

A esta nueva realidad de espacio de color, le acompaña, por supuesto, una nueva curva de rango tonal, aunque en este caso vamos a tener que citar dos. La llamada Percentual Quantization y la Hybrid Log Gamma.

Comentábamos en el anterior artículo que la curva gamma 2.4 partía de un defecto en la tecnología CRT que se simula por software en las actuales digitales. Puede parecer una decisión absurda, pero tiene una explicación bien sencilla: no todos nos cambiamos de una pantalla CRT a una plana el mismo día. Durante varios años convivieron ambas tecnologías y resultaba inasumible el generar todo el contenido por duplicado: con la curva para CRT y una nueva para pantallas RGB. Pensad también que en televisión este problema es mayor por la escasez de frecuencias. Sin embargo, ahora estamos en un escenario distinto y estamos preparados para por fin soltar este lastre que ha estado mermando las capacidades de las cámaras durante tantos años.

En el próximo artículo analizaremos con detalle cada una de estas curvas y plantearemos su idoneidad para cada escenario.

Te presentamos el SetUp de Antonio Bazalo

“Cómo equipo principal uso Mac, ofrece más estabilidad y fiabilidad en entornos de postproducción y me permite usar RAIDs con Thunderbolt y conseguir un mejor rendimiento. Luego dispongo de varias herramientas de Blackmagic Design como el Micro Panel y el Speed Editor, ya que trabajo en ambas áreas”

🖥️ MONITOR: EIZO ColorEdge CG279x
💻 COMPUTER: iMac 5K 2020
⚙️ SOFTWARE: DaVinci Resolve Studio
🖌️ EDITING: Blackmagic Speed Editor
🎛️ CONTROL PANEL: Blackmagic Micro Panel
✔️ BACKUP: Synology DS420+ RAID SHR

“Para los coloristas, la confianza en nuestro monitor es la clave. Nos permite tener la seguridad de que alcanzamos una visión precisa de lo que pretendemos y nos aseguramos de que además cumple con las regulaciones de emisión y difusión. En el caso de EIZO no es sólo una cuestión de calidad, sino que el poder programar la calibración me ahorra tiempo y hace que la confianza sea continua”

CAPITULO 1
LA EVOLUCIÓN HACIA EL HDR

En el mundo de la postproducción de cine y video, y también en el de la fotografía, hay una cruzada continua por conseguir reproducir la imagen más fiel y realista posible. Lógicamente, el objetivo final es la visión humana, que es aquello con lo que podemos comparar y evaluar, y somos una especie con suerte: nuestra visión actual es excelente en términos de rango dinámico y colorimetría.

Durante los últimos treinta años hemos vivido cambios apasionantes en la industria. Primero pasamos de la postproducción analógica a la digital; en las casas tuvimos una transición similar, del VHS al DVD. A primeros de siglo comenzamos a jubilar nuestros antiguos televisores CRT por pantallas digitales, desde el plasma a los actuales LED y OLED; acompañados por la llegada del formato actual de emisión y difusión HD.

En esta norma actual, tanto si hablamos de televisión como si hablamos del formato Blu-Ray o la difusión por plataformas de streaming, tenemos dos elementos comunes:

  • El espacio de color BT.709.
  • La curva de corrección de gamma 2.4.

En su momento, eran una revolución más bien moderada. El espacio 709 cubre aproximadamente un 30% del espectro de color visible por el ojo humano, y su predecesor, el espacio BT.601 no quedó demasiado atrás. En cuanto a la curva tonal, la industria no tuvo otra opción que reproducir por software un defecto propio y único de los televisores CRT y acogimos la curva de corrección de gamma cuyo punto blanco se establece en la norma a 100 nits de brillo.

Y exactamente, ¿qué implica un brillo de blanco puro a 100 nits? Básicamente, cualquier elemento que rebote la luz del sol en un escenario exterior medio brilla a varios cientos o miles de nits, es así de simple. Es muy poco en comparación a la realidad.

Si a finales de los 80 comenzamos a ver la postproducción en digital, desde hace unos años ya podemos contar con un flujo de trabajo 100% desde captación en este sentido, ya que prácticamente todos los fabricantes de cámaras en todas las gamas han migrado al digital. Esto y algunas cosas más-, han contribuido a que las cámaras actuales sean capaces de captar una gama de color y una curva de tonos muy superior a la norma HD. Una producción actual filmada con ARRI, RED o Blackmagic Design acaba sometido a un inevitable cuello de botella de rango dinámico y colorimetría al entregarse en HD.

¿Y qué hay de las pantallas? Bien, los fabricantes de televisores tienen un cometido entendible: vender pantallas. Las pantallas HD de los últimos años son capaces de brillar muy por encima de 100 nits y de ofrecer más color, y nos lo recuerdan con nombres comerciales muy atractivos…
Pero de nada sirve si el contenido no es capaz de entender estas innovaciones.

Es por esto que los pesos pesados de la industria, hace ya algún tiempo, designaron el sucesor de la norma HD, ahora también conocida como SDR -Standard Dynamic Range-.

La norma HDR se fundamenta en dos principios: ofrecer más color y un rango tonal mucho más amplio, lo cual deriva en imágenes más brillantes, más vivas, más profundas, más contrastadas y por tanto, mejor definidas. El concepto HDR se ha asociado interesadamente con el 4K o UHD, pero hemos de aclarar que no van de la mano per se, y que un contenido puede ser HD y HDR o puede ser 4K y SDR.

En el próximo artículo comenzaremos a tratar los verdaderos aspectos técnicos de este nuevo concepto y que implicaciones tiene para toda la industria.

Elección del Monitor Ideal para Teleradiologia

La telerradiología permite a los hospitales adaptarse a la creciente tendencia del teletrabajo en el caso de radiólogos internos para que puedan hacer la lectura de imágenes cómodamente desde casa. Para el radiólogo en remoto, sin embargo, puede ser un desafío cumplir con las estrictas regulaciones impuestas a los equipos médicos con un presupuesto limitado, así como implementar un entorno de trabajo de diagnóstico adecuado que permita su concentración óptima.

Este artículo cubre algunos puntos importantes a considerar al elegir un monitor para telerradiología que ofrezca la seguridad de que cada interpretación es tan precisa como una realizada en una sala de lectura dedicada.

01
Autorización del monitor de grado médico
FDA 510 (k)

Al diseñar un entorno que esté preparado para la telerradiología, es importante tener en cuenta la precisión del monitor que utiliza para leer imágenes médicas. La Administración Federal de Drogas (FDA) de EE. UU. emite la autorización 510 (k) para monitores médicos que cumplan con sus estrictos requisitos para uso diagnóstico. Los monitores que cumplen con este estándar se consideran de grado médico y, por lo tanto, se pueden usar de manera confiable para la interpretación de imágenes médicas en radiografía general u otras áreas para las que obtiene aprobación. El uso de un monitor de grado médico en lugar de un monitor convencional para telerradiología es fundamental para garantizar que lo que ve en la pantalla esté optimizado para uso médico, de modo que, ya sea que esté en su sala de lectura de su puesto de trabajo habitual o trabajando de forma remota, puede realizar diagnósticos con confianza.

02 

Mantenimiento DICOM Part 14

gracias al sensor de calibración integrado 

El uso de un monitor que no admita adecuadamente el estándar DICOM Part 14 es incapaz de mostrar ciertas gradaciones con precisión. Esto puede no generar información pertinente para un diagnóstico y tener un impacto potencialmente negativo en la atención del paciente. Para asegurarse de que un monitor pueda mostrar los tonos de escala de grises correctamente de acuerdo con este estándar, es necesario reajustarlo mediante una calibración regular. Los monitores médicos RadiForce seleccionados vienen equipados con un sensor de calibración incorporado que mide el brillo y los tonos de la escala de grises, luego se calibra según el estándar DICOM Part 14 para una reproducción fiel de manera constante. El sensor es manos libres, por lo que no interfiere con el área de visualización cuando está en uso, lo que brinda tranquilidad al telerradiólogo.

03
Espacio de trabajo inteligente que ahorra espacio y es liviano

No todas los espacios destinados a la telerradiología en el hogar son adecuadas para albergar equipos voluminosos. Un monitor con un diseño que ahorra espacio es la mejor manera de garantizar que mantenga un entorno de trabajo limpio y cómodo. El monitor recomendado por EIZO para telerradiología, el RadiForce MX315W, cuenta con un diseño delgado con una fuente de alimentación incorporada para reducir el desorden en el área de instalación. También es liviano, pesa solo 11,7 kg, lo que facilita su transporte y configuración.

04
Trabajar cómodamente Posicionamiento óptimo

Si su monitor no está colocado correctamente puede causar rigidez en los hombros y dolor de espalda si su uso es prolongado. Un soporte muy versátil que permite una variedad de opciones de ajuste de altura, inclinación y giro le permite colocar la pantalla de la manera ideal para una visualización cómoda. Esto ayuda a promover una mayor eficiencia y concentración en el trabajo.

05
Vea cada detalle Resolución de 8 megapíxeles

No siempre es posible instalar un entorno de múltiples monitores  para telerradiología en el despacho de casa. Un solo monitor demasiado pequeño o de baja resolución limita la capacidad del radiólogo para ver aplicaciones importantes y afecta la eficiencia del trabajo. Un monitor con 8 megapíxeles (4096 x 2160) es una pantalla grande capaz de proporcionar más espacio para ver imágenes médicas detalladas y de alta resolución con claridad, así como un mayor espacio de visualización para distribuir libremente múltiples ventanas y aplicaciones. Esto hace posible mostrar varias imágenes, como CT y MRI, una al lado de la otra para una comparación más eficiente.

06
Cómoda tecnología Work-and-Flow de lectura de imágenes

A medida que se digitalizan más modalidades de imagen, los radiólogos ven un volumen cada vez mayor de información en sus pantallas. La tecnología Work-and-Flow incluida en las soluciones de los monitores médicos RadiForce alivian la complejidad del flujo de trabajo de imágenes con funciones desarrolladas pensadas en el radiólogo.

07
El equilibrio perfecto entre costes y rendimiento

Con la necesidad de adaptarse a las prácticas de trabajo flexibles para trabajar a distancia, puede ser un desafío para los hospitales equipar adecuadamente a los telerradiólogos para que estén preparados para trabajar a distancia. Ya sea que se trate de una medida de instalación temporal o permanente, es importante considerar cuidadosamente la capacidad del equipo para cumplir con los estándares médicos y cumplir con los diferentes presupuestos. La serie MX de monitores médicos de EIZO ofrece un rendimiento de costos excepcional, lo que los hace ideales para revisar imágenes médicas optimizadas para DICOM Part 14 sin comprometer la calidad de grado médico.

08
Tranquilidad Total Servidor de 
Hosting con Control de Calidad

Puede resultar difícil para los hospitales mantener el control de calidad de los monitores situados en ubicaciones remotas, sin mencionar la carga adicional para el teleradiólogo si se le pide que lo lleve a cabo el mismo. EIZO puede configurar y alojar un servidor web para el control de calidad, lo que permite a los hospitales mantener de forma centralizada el control de calidad de los monitores en la red, de modo que los administradores puedan realizar las operaciones de control de calidad necesarias y aliviar la carga de los telerradiólogos.

Testimonial

“En medio de esta pandemia, tuve que programar tareas a domicilio para minimizar los viajes innecesarios, así que me comuniqué con EIZO y Taurus Medical Solutions y, en 3 días hábiles, me proporcionaron un EIZO RadiForce MX315W con una tarjeta gráfica compatible para para ponerme a teletrabajar de inmediato. La calidad la claridad del monitor de 31,1″ fue excelente. Una única pantalla panorámica es mucho más liviana que dos monitors pareados. La adición de un RadiLight proporcionó la iluminación de fondo que redujo la tensión en los ojos durante informes prolongados. En general, es la mejor inversión que he hecho para mejorar mi proceso de trabajo, y es la facilidad con la que tanto EIZO como Taurus lo proporcionaron lo que hizo que la compra fuera una experiencia indolora “.

Dr. Calvin Soh, neuroradiólogo consultor en Manchester Royal Infirmary

Recomendado para Teleradiología

¿Tiene alguna duda?

Estaremos encantados de ayudarle a encontrar el modelo
adecuado para su entorno. Póngase en contacto con nosotros.

12