A veces decimos cosas creyendo que sabemos mucho, y no sabemos nada. Mira que no se ha usado camaras rapidas (al fin al cabo mas framerate) en el cine.
En cine, se acabo usando 24, por una simple razón, standar barato. Cuanto mas framerate, mas metros de pelicula se necesita para la misma duración, multiplicado por todas las tomas que se ruedan, todas las copias que se hacen, era necesario que fuera un buen framerate, pero el menor posible.
Ademas, en cines, el framerate real, es de 48 o 72, ya que cada fotograma, se proyecta al menos 2 veces, gracias al semi disco giratorio. 2 vueltas del disco, dos exposiciones, 1 fotograma. El framerate real en cines convencionales y por norma es 24x2. Creo que se estubo intentando llegar a 3 muestras por fotograma, pero no recuerdo si se logro. Una cosa es el framerate del material filmico, y otro es el framerate de imagen.
Hay que ir a ese framerate para evitar el parpadeo, pero si se hubiera ido a tal framerate, lo que se habria necesitado de metros.
Y en cine, IMAX usa un mayor framerate. Por eso las pelis Imax en metros son mucho mas largas y ocupan mas, lo que les impidio durante mucho tiempo superar los 60 minutos.
En televisión, si se fue a las cifras, fue por razones similares. En este caso ancho de banda en vez de dinero. Lo que marco definitivamente, fue la frecuencia electrica base de los sistemas electronicos que manejaban. NTSC 60hz/2 y PAL 50hz/2. Ten en cuenta, que se generan entrelazadas para evitar el parpadeo como en el cine.
De hecho, con el digital, es muy probable que se vaya aumentando el framerate para dar mas detalle... e incluso proyectar a framerate variable para joder a los screemers y que no puedan grabar la peli en condiciones.
Salvo unos cuantos titulos en la epoca de transición, dudo que muchos directores no lo desearan. Hay que saber que existe para desear.Hoy en día, con las remasterizaciones, en muchas películas en la que el grano no era deseado, se podría limpiar y dejarlas como como si se hubieran rodado en formato digital.
Esto ya lo discutimos anteriormente en profundidad, y no se consiguio dar una explicación satisfactoria a esa cuestión. Nadie ha logrado todavia aclararme si el fotograma tiene 4K, en que momento de la proyección se pierde la resolución.En cuanto a que el negativo tiene mas resolución que un Bluray, no es cierto. Si tu sigues un proceso fotoquimico convencional, a sala llegan con suerte 600 lineas de resolución.
A dia de hoy, esta establecido la resolución del 35mm en 4Kanalogicos (aprox), y hasta que nadie demuestre lo contrario esa es la base en la que nos movemos.
¿Pero no acabas de decir unas frases arriba que no es cierto que el negativo tenga mas resolución que el BR?Asi que si tu ruedas en 35mm (el negativo original si que tiene mas resolución que el HD, se degrada en el proceso) y de eso sacas una copia restaurada a bluray, estaras viendo una imagen que no has visto en la sala de exhibición.
No niego la posibilidad de perdida de calidad por generación de copia, que pueda ser percibida como perdida de resolución (entendiendo incorrectamente resolución por detalle existente) porque esta, pero que alguien explique como puede perderse resolución en el copiado en sistemas por contacto como los actuales.