No, no es así como funciona el HDR Vídeo. El mal llamado HDR de foto en realidad es un procesado de imagen llamado Tone Mapping que lo que hace es distribuir la información de luminancia de la imagen en un target más "comprimido" (8bits). Es la única forma de ver una imagen HDR en dispositivos que no pueden visualizar tal latitud de imagen, que a veces puede llegar a tener más de 30 stops, pues se fotografía varios stops por debajo y por arriba, para obtener la mayor información de luz posible.
Eso, en cine, es imposible, pues el sensor debe "fotografiar" a 24 fotogramas, y usando una fracción de tiempo para ello. Por eso es vital que dicho sensor tenga la capacidad de poder guardar la información lumínica con la mayor latitud y rango dinámico posible.
El color y su intensidad, en realidad, viene determinado por el perfil del mismo. Puedes tener HDR sobre Rec.709, sobre DCI-P3 o sobre Rec.2020. Y si nos ponemos puristas, sobre RGB que es el estandar más puro que existe (en realidad sería XYZ pero bueno, ese perfil de color es usado en DCinema y realmente no se puede "ver" directamente, siempre tiene que haber una conversión a RGB).
En mi Blog hay ámplia y abundante información sobre el tema, digamos que lo del HDR me viene desde hace muchos años, antes siquiera de la existencia de los primeros displays para poder verlos...