Claro, pero es que todo, aunque sea una imagen "normal", siempre se "postproduce". Es decir, una imagen en "bruto", salvo que apliques una LUT específica o la grabes con una cámara que directamente te ofrezca la imagen "casi final", siempre ha de ser correctamente manipulada.
Esto implica COMO MINIMO un balance de blancos, un contraste y un brillo. Y desde ese punto de partida, explorar ya el camino que se quiera.
Si tienes como base una imagen con una latitud enorme, grabada en sLOG y que de origen es "plana", el resultado será mucho más enriquecedor, pues te permitirá manipularla hacia donde uno quiera sin que se llegue a resentir. Obviamente, hay límites, como todo. De donde no hay no se puede sacar.
En el caso del HDR, en realidad es más sencillo de lo que parece. En vez tener un rango de 0 a 100, tienes un rango de 0 a 10.000 (aunque obviamente no se llega a esos límites, lo más habitual es 1000 o 4000, según la información de luminancia que se registre).
Y me dejo de lado, obviamente, los planos 100% digitales o con algún elemento digital, donde se ahonda en el mundo "mágico" del EXR, las luminancias logarítmicas, profundidades de bits de hasta 48 bits por pixel y más que me dejo en el tintero...
No este el post más correcto par divagar sobre estos temas, y creo que extenderme sobre ellos aunque pueda resultar interesante, es equivocado. Tan solo explico cuatro pinceladas, pues hay todo un universo al respecto que explorar...
si eso si lo sabia que se varia los rangos sin llegar a extremos, pero pense que se utilizaban tambien aunque mediante edición diferentes exposiciones. lo de las profundidades de bits tambien lo conocia, es mas lei bastantes, por ejemplo en pelis como bourne (cosa que no entiendo) no se puedo generar una mejor tonalidad y hdr, por que no tenian una muy buena profundidad de bits. gracias por la instrucción y hablamos en otros post mas apropiados si
" Quod in hac vita facimus, vocem aeternitate habet"
Se ha filtrado que la película se masterizó a 324 nits de máximo, por lo que debería verse bien en cualquier tele.
El HDR de la fotografía se parece al de vídeo lo que una mona a Claudia schiffer
Última edición por deportista; 01/01/2018 a las 18:46
En SDR el brillo es general y afecta al brillo de la imagen por igual.
Si tú, como bien sabes, incrementas el brillo hasta alcanzar esos 300 o más nits en tu tele, lo que haces es subir la luz en la totalidad de la imagen.
El brillo HDR es diferente, es focalizado a las áreas más brillantes para obtener el rango dinámico deseado.
No es nada ni mucho menos nuevo que una película solo haga uso de un rango dinámico en los High lights de tan solo 324 nits, hay títulos como Planet Earth o En el corazón del mar que también se mueven por esos valores.
No tiene nada de raro a pesar de que se haya masterizado en un monitor de 0,005 y 4000 nits como es el caso de Dunkirk
Hasta ahora como MAX CLL solo habia visto eso en los piratones, la verdad xD
En el corazon del mar creo recordar que tiene mas, sobretodo por las escenas con sol que clippeaban que daba gusto
Las buenas noticias para todos son basicamente que no creo que sufran de Clipping en ninguna television con esta pelicula
En realidad, en SDR y HDR los responsable de la luminosidad más intensa del panel (en Cd/m2) son el Contraste (que actúa sobre la parte más alta de la luminosidad) y la Luz OLED (en el caso de los OLED) o la Luz de retriluminación (en el caso de los LCD). La conjunción de ambos hace que tengas más o menos nits al final.
En SDR la norma te dice que el pico máximo debe ser 125 cd/m2. Esto se consigo mayormente ajustando la Luz OLED/retroiluminación, pues el contraste sirve para ajustar la imagen para que no haya clipping en las altas luces, que generalmente se suele poner siempre a tope si quieres "despegar" los blancos (mayor rango dinámico entre negros-blancos).
Eso significa, siendo absolutamente purista, que la Luz OLED bajaría a niveles realmente bajos, si nos atenemos a la norma. Y la diferencia entre SDR y HDR es muy notable, como es obvio.
Pero dado que por lo general esa norma solo la cumplen puristas demasiado puristas, el resultado es que en SDR habitualmente la Luz OLED (sobre todo en OLEDs) se pone mucho más alta, ofreciendo picos de más de 300 o 400 cd/m2 ¡en SDR!.
Eso hace que las diferencias entre ver SDR y HDR en un televisor OLED, sean menores (siguen existiendo, porque el grading y la forma de manejar la imagen es diferente), pero el "look" percibido en SDR en una OLED es más HDR, porque el negro base NO es afectado por la Luz OLED. Puedes ponerla al máximo que nunca verás el negro "levantado" como pasa en los LCD. Incluso los valores más cercanos a negro (Ires 1-7 o así) se ven poco afectados, porque actúan de forma REAL, no tienen una luz trasera iluminando.
Por eso siempre la sensación en un Oled al ver imágenes es de parecer que los negros están más "apretados". En realidad, es que es así como se debería ver.
Luego está el tema del masterizado en HDR y sus dos famosos metadatos, el MaxCLL y MaxFALL, aunque todo el mundo se fija en el primero. El problema de estos dos metadatos es que NO TODOS los televisores leen estos metadatos. El resultado final varía MUCHO de un televisor a otro y la forma que tenga de convertir la imagen original en HDR.
Unos televisores aplicarán el Max CLL (siempre dentro de sus márgenes), otros pasarán por completo del MaxCLL y harán su propia estimación, otros generarán metadata al vuelo, otros realizarán un Tone Mapping para adecuar la imagen a los margenes reales que maneja el televisor y otros harán clipping más allá de los que pueden visualizar.
Hasta que los televisores no visualicen el HDR como hacen los monitores profesionales donde se da el OK final a la película, el resultado visual irá variando de televisor a televisor. Es obvio que meter un Max CLL bajo hará que la disparidad será menor, pero aún así sigue siendo incontrolable.
Feliz Año :-)
Yo me quedo con lo que dijo nosequien encargado de la pelicula de Chappie en 4K... Que dijo algo como
"No sabes lo que es el HDR hasta que ves Chappie en 4K a 4000nits en un Dolby Pulsar"
Bueno, esas afirmaciones hay que cogerlas MUY con pinzas. No hay que pensar en "más nits" sino en "mejores nits". Pero oye, entiendo que la estrategia de Marketing es bastante clara al respecto...cuantos más nits puedas "vender", pues mejor para justificarse, aunque se obvien cosas que realmente son más importantes.
Creo que el que dijo eso de Chappie en realidad se refería al potencial del HDR sin tener en cuenta el pico de brillo máximo al cual fue masterizada la película
Pero seamos realistas y dejemos el populismo barato de yo sé más que nadie para otra cosa, porque aquí no se trata de si es mejor o peor más o menos nits o de si los píxeles han de ser de más calidad en lugar de más brillantes, aquí se trata de que hay películas como Dunkerque que no pasan de 324 nits y otras que tienen picos de hasta más de 1500 nits que son un problema para teles Oled como la mía.
Saludos
No se trata de creerse el más listo de la clase (siempre habrá alguien más "listo" que uno), sino de ser lo más honesto y cabal posible. Nadie tiene la razón absoluta sobre nada, pero una posición razonable siempre será más valorable antes que el "porque lo digo yo".
Yo nunca he visto "cosas raras" viendo HDR en mi OLED, sinceramente. Por supuesto, hablo de mi experiencia, la tuya puede ser radicalmente diferente.
Ahora bien, si piensas que estoy equivocado, puedes ilustrarme con una labor lo más pedagógica posible, por favor.
Que ilustre? Pues imagino que no habrás visto muchos UHD, porque los comentarios de gente con Oled quejándose sobre estos problemas con películas como las HP, Sin Perdón, Ghost in the shell, Underworld y otras, se pueden leer no solo en mundodvd, en bluray.com también, y puesto que no es por culpa de los discos me parece que el único que ha dado en la diana con el problema ha sido 256k. El sabe cuál es la causa, metadatos estáticos, y cuál es la solución, dinamicos
Quizá la forma en que lo expresa no sea la más correcta, pero que ha dado en la diana, seguro.
Última edición por deportista; 02/01/2018 a las 20:14
Claro que el problema son los metadata estáticos, en un post anterior ya he comentado que los televisores tienen que lidiar con el HDR de diferentes formas "creativas". Quizás se me pasó decir que obviamente pasa con HDR10. Con Dolby Vision no parece suceder, porque usa metadata dinámica.
Pero sigue teniendo el mismo problema de origen, los televisores actuales realizan una serie de transformaciones para lograr que de la imagen original, se pase a la final, en vez de directamente procesarla sin esas transformaciones, como hacen los monitores de masterizado, que no recurren a trucos de ese estilo.
Yo he visto bastantes películas en HDR10, y no he visto esos problemas que dices que hay. Como digo, cada televisor visualiza el HDR de forma diferente, y luego están la decena de miles de settings difeentes que tiene cada uno, que aunque en HDR no se debería tocar nada (al menos en las OLED de LG), pues la gente se pone en modo "creativo" y a veces toca pensando que "se ve mejor" cuando igual no es así.
De todas formas, tu discurso me recuerda a alguien, no se...
Me ha hecho gracia esto, como dejando caer que alomejor soy yo el deportista y todo lol, ya si eso pregunta a los admins y que revisen las IP
El HDR10 en las OLED de LG clippea que da gusto, de hecho usando los patrones de calibracion HDR de masciola, el clipping del rojo ronda sobre los... 550nits mas o menos, una birria vamos, el azul anda mas o menos por ahi tambien, solo tienen un clipping alto el amarillo y el cyan creo recordar
Tu que trabajas en esto, doy por hecho que sabras de que patrones hablo http://diversifiedvideosolutions.com/dvs_uhdhdr-10.html cuestan 25$
No, 256k. No he dejado caer que tú y deportista sois el mismo. He dicho que me recuerda a alguien, que es distinto.
Por otro lado, el HDR10 en las OLED de LG usa una fórmula de Tone Mapping para intentar meter dentro de su rango útil el máximo posible de imagen. No clipea, como sí hacen otros televisores.
Basta pasar algún patrón de HDR que llegue hasta 10.000 nits y comprobarás que aunque no llega a esos niveles, sí es posible distinguir los pasos hasta 4000 nits, que en la práctica es lo máximo a lo que se masteriza hoy en día.
Yo no he usado esos patrones que pones, tengo otros, y además me genero los míos propios cuando tengo dudas sobre lo que veo.
Aquí tienes al bueno de Vicent Teoh explicando como actúan tres televisores y como las LG dentro de los parámetros, son las que mejor retienen la información de altas luces:
https://www.youtube.com/watch?v=Lt6IflKAmWg
Puedes replicar la experiencia de Teoh si tienes una LG OLED, como yo ya he hecho.
Debes tener una OLED 2017 pues, que tienen el algoritmo HDR10 activo (La version de LG del HDR10+)
Las 2016 no tienen eso, y clippean todo el detalle, si quieres te mando por PM el test de color clipping y me dices hasta donde llega cada color, pero ya te digo, el rojo en las 2016 clippea antes de los 600, de hecho estos mismos patrones son los que Vincent usa para calibrar HDR (Los unicos que existen, de hecho)
Vincent Teoh muestra eso en una OLED 2017 con el algoritmo![]()
Última edición por 256k; 03/01/2018 a las 10:54
No, yo tengo una OLED de 2016 (C6).
El HDR10 activo lo que hace es ignorar los metadatos de los archivos HDR y generar unos nuevos "al vuelo".
Yo en la mía no he apreciado nunca lo del color clipping que dices. No digo que no lo haya, sino que no lo he visto, y me he visto los suficientes contenidos como para darme cuenta de si se ve "mal".
Los patrones son eso...patrones. Las películas son otra cosa. Como te digo, yo he hecho mis propios patrones, puedo estar equivocado, por supuesto. Puedes pasarme si quieres esos patrones.
En el vídeo, Vicent no usa HDR Active o al menos no menciona que lo use. Como te digo, el tema del tone mapping de LG no viene de este año, sino del anterior. De todas formas, yo no quiero que esto sea un enfrentamiento y medirnos las pollas. Yo no entro en esos juegos, pero sí me gusta ser analítico y comprobar por mi mismo lo que se afirma, y ofrecer mis resultados personales. Me debo a ello.
Yo una E6, te he mandado un MP para no manchar mas esto, cuando llegue a casa te mandare el patron, pero ya te digo, poca gente se habra pasado tantisimas horas calibrando estas OLED de LG como yo, sobretodo investigando cual era el problema al calibrar el HDR10 y el tinte que introducia en la escala de grises pese a que los patrones daban medidas correctas (Correctas, si, pero para ese patron, todo lo de en medio se veia alterado), de hecho las LG 2017 te dan 2 opciones... O calibras para 1000 nits, o para 4000, pero no te permite ambas cosas
PD: Dejo esto aqui para todo aquel que quiera comprobar su nivel de clipping y entienda lo que estoy diciendo
https://mega.nz/#!xUQV2JhQ!IfGQOmPa_...BlMCBNYMCZ8o9U
Última edición por 256k; 03/01/2018 a las 12:27
En Amazon.es ahora mismo esta por 16,19€ yo ya la he comprado
https://www.amazon.es/gp/product/B07...?ie=UTF8&psc=1
Última edición por xavieuropa; 06/01/2018 a las 20:02
Hay mucha diferencia entre el Blu-ray y el hd en cuanto imagen y sonido ? no sé si coger el Digibook o el 4K, de momento no tengo tele 4k
Última edición por Peñal; 08/01/2018 a las 00:52
Esta es la típica película que no opino lo mismo de la mayoría de la gente. Realmente, me parece incluso, una edición con una imagen mediocre pero no voy a entrar en polémicas.