He estado varias semanas haciendo varios vídeos dando respuesta a preguntas frecuentes que he leído durante años en diferentes sitios, y aquí os dejo los vídeos, por si necesitáis informaros más de el "por qué" de algunas cuestiones habituales:
He estado varias semanas haciendo varios vídeos dando respuesta a preguntas frecuentes que he leído durante años en diferentes sitios, y aquí os dejo los vídeos, por si necesitáis informaros más de el "por qué" de algunas cuestiones habituales:
Interesantes y amenos vídeos, pero el de la intrusión del grano en la imagen para mi es desvirtuarla por completo. El ojo no presenta grano, por tanto para mi es una traba el aplicar este método por no estar viendo una imagen natural y nítida.
¿Tanto progreso y cada vez más complejidad para poder ver perfectamente una imagen? Dentro de mi desconocimiento pese a la bajísima resolución en las pantallas CRT los macrobloques jamás se dieron así como banding y demás inconvenientes actuales.
Todas las cámaras digitales generan un patrón de grano. Lo explico en el vídeo. Además, prácticamente todas las producciones añaden algo de grano bien sea quitando el original para aplicarlo después una vez compuestos los efectos (que la mayoría son invisibles y no notamos nunca) o bien como decisión artística, que DEBEMOS respetar.
No se desvirtúa nada, es decisión artística, te guste más o menos. No es una traba.
Tampoco una cámara da una imagen "natural y nítida". Eso es un mito como una catedral. Primero por las lentes usadas, y aquí a veces incluso se usan lentes vintage que dan un aspecto a la imagen más blanda, desenfocada, con distorsiones, etc...de nuevo entramos en el aspecto artístico y decisión personal del director.
Y por supuesto si todas las imágenes fuesen como las "demos", vaya aburrimiento de cine tendríamos...todo igual, todo "bonito". Pues va a ser que no, ¡viva el grano, viva la suciedad, viva la decisión artística!
Y claro que en los CRT se veían tanto macrobloques como banding, otra cosa es que tú no los hayas visto. Los macrobloques nada tienen que ver con la tecnología de pantalla, es de codec. En un CRT los veías menos porque su calidad era peor en comparación con las pantallas actuales, donde cualquier error se magnifica enormemente.
El banding es un defecto combinado de la compresión excesiva y los 8 bits, pero sucede hasta en 10 bits, no en vano tengo un patrón donde se pueden ver los pasos de gris a 10 bits y se ven claramente unos de otros, y ahí los CRT tampoco tienen mucho que hacer (la inmensa mayoría por no decir todos, son 8 bits).
Vamos a ver, puntos básicos:
1-el subsampling YCBR(4:2:0) te recorta algo la nitidez respecto a RGB (4:4:4) porque te mezcla los pixeles de cada recuadro de 4 pixeles en azul y rojo (B y R) , manteniendo el Y (valor luminancia que incide sobre todo en el verde), se usa para que la imagen ocupe menos bytes (tamaño de almacentamiento), se usa para video porque sale a cuenta pero no para video juegos, escritorios, texto, diseño, edición que debe ser impresa, etc,...porque ahí sí se nota la peedida de nitidez.
2-las peliculas se editan en monitor desde hace muchisimos años,es lógico cuando se entró al uso de la informática porque se ha de trabajar digitalmente y un monitor calibrado es más estable que un video prooyector.
3-En la sensación cine influyen varios factores, no sólo la relación tamaño - distancia, yo tengo 3 salas , 2 con TV y 1 con proyección y para cine prefiero la de proyección porque es una batcueva y desaparece todo con luces apagadas y claro influye mucho también todo el tratamiento acustico y amplitud de la sala.
Sí bueno...esa es la teoría. La realidad es que apenas hay diferencias cuando la resolución es 4K. Esto hace 20 años igual era más crítico (ese DV mierder, esas resoluciones PAL SD chuscas), pero haciendo los vídeos para youtube he trabajado con material 444 generado por mi, que he ido transformando a 422 y 420 a diversas resoluciones, y no se nota apenas nada.
Tengo los archivos originales de proyecto. Solo se pueden ver en edición, de ahí que para que se note algo haya que "trampear" haciendo zoom en la imagen y engañar así al sistema. Y aún así, editando nativamente en RGB y luego exportando a 420 pues se pierde algo, claro.
Donde más se nota el 444 a 420 es en la saturación de color. Es obvio, donde se recorta es precisamente donde nosotros vemos menos (lo explico en el vídeo, somos mucho más sensibles a la luminancia que al color).
Curiosamente el HDR ha hecho que se mantengan los colores más saturados, pero claro, siempre hay handicaps aquí y allá. No por nada los DCP para cine digital son agnósticos en cuanto resolución de color y van a piñón fijo en XYZ sin límite teórico de color.
El futuro...puede ir por ahí, una versión simplificada de esto. Pero la herencia del pasado es enorme y aún pasarán décadas.
Mis vídeos simplifican mucho todo porque van dirigidos a una audiencia general. No es plan de hacer 20 minutazos contando muchos datos técnicos que aburran hasta las masas (y el del chroma subsampling es probablemente el más "pesado").
Tampoco comparar con RGB en pantallas, es obvio que ahí se nota, pero es que estamos hablando de señales de vídeo, que nunca serán tan perfectas, aún usando animación por ordenador (todo se ensucia un poco precisamente para que no quede demasiado artificial)