Un apunte, que creo necesario aclarar:
Esto es parcialmente correcto. El que DV use 12bits no significa que se use TAL profundidad de bits. Todos los masterizados actuales se realizan como máximo a 10bits en DCI-P3, tal como se realizan para Cine Digital. Digamos que estamos viendo un 90% del master original de cine, pero en casa.- Nos interesa a todos que se utilice Dolby Vision pues el contenido es a 12 bits de profundidad de color (el único HDR capaz de representar totalmente el espacio de color rec2020) frente a los 10 bits del HDR10+. También con Dolby Vision soporta hasta 10.000 nits de brillo máximo frente a los 4.000 del HDR10, muy por encima de lo que es capaz HDR10+.
No existe a día de hoy un display comercial que soporte Rec.2020 al 100% con 12bits de profundidad, con lo que la supuesta ventaja no aporta absolutamente nada.
Por otro lado DV lleva dos streams de vídeo, uno para la imagen en sí, y otra pista a 1920x1080 con los metadatos en forma de imagen. Esta pista secundaria probablemente sean los 2 bits extra de los 12bits, que indican el nivel de luminancia para cada fotograma concreto.
Para finalizar, HDR10 soporta hasta 10.000 nits como máximo. Es la norma estandar de facto. Pero es un error guiarse por ellos, el masterizado típico en HDR no suele superar los 300 nits, y solo un 10% puede llegar a picar a esos niveles, y dentro de ese 10%, solo un 2% del área de pantalla. Estamos hablando de algo residual. El gran grueso de la imagen se mueve en torno a esos 300 nits.
HDR10+ no usa una pista secundaria como DV, su invención por parte de Samsung está ligada a optimizar sus pantallas FALD LCD y llevarlas al máximo posible, dicho por ellos mismos, vamos. No aporta nada en OLED más allá de lo que aporta DV, que es lo máximo que uno puede soportar hoy día el formato.
Dentro de cinco años, pues ya veremos. Pero hoy día así es como está el panorama.
No os molesto más :-)