Bueno. Yo tengo compradas unas 100 en iTunes, muchas con Dolby Vision, y la mayoría no se acerca en calidad a algunas que he visto en Disney+ con Dolby Vision.
Versión para imprimir
Creo que no me has entendido. Te comento que algunas películas vistas en Disney+ con Dolby Vision se ven mucho mejor que la mayoría que tengo compradas con Dolby Vision en iTunes. Como también te comento que contenido propio de Apple TV+, que lleva Dolby Vision y Atmos en castellano, se ve mejor que las películas de iTunes.
Yo he podido analizar tecnicamente algunas películas en 4K en iTunes y superan con creces con mas bitrate y calidad que a las de Disney+. Pero, también opino, que eso depende del proveedor y del archivo que le da a Apple, claro. Si Apple recibe algo hecho o hace su propio encode. Sé que habrá pelis en Disney+ mas comprimidas en 4K que la version de iTunes
No sé exactamente cómo puedes analizar el bitrate y los códecs utilizados por las 2 plataformas de streaming. Yo comento lo que veo y hablamos de digital porque yo he comparado la misma película entre físico con HDR e iTunes con Dolby Vision y no te creas que la de Dolby Vision era la que se veía mejor.
No sé como lo has medido ni cúando lo medistes, ni que dispositivos utilizas, pero así a bote pronto, dudo mucho que eso sea así.
Ya se ha hablado mucho en ese foro (y en otros) el tema de la incuestionable calidad que está dando Disney en su plataforma ultimamante (ya que no empezó con buen pie), incluso igualandola a Netflix (principal pionera y que va muy por delante).
Ojo, y hablo explicitamente de Dolby Vision. En otros formatos ya lo desconzco.
Los Intocables en Itunes por ejemplo segun Blu-ray.com tiene un bitrate de 25 Mbps en itunes.
Avengers Endgame en Itunes tiene un bitrate medio de 25 Mbps según un post de blu-ray.com. Disney plus tiene un bitrate tan alto? Que yo sepa el servicio de Tv de Apple TV+ ronda ese bitrate.
De hecho en Blu-ray.com hay un informe que lndica que en Apple Tv+ se ha llegado a los 41 Mbps de bitrate y que Itunes esta por encima de lo que ofrecen otros servicios como Netflix y Disney plus.
Otra cosa a tener en cuenta es que Itunes / Apple Tv no ofrecen la misma calidad desde una App en una Lg que desde el propio Apple Tv 4K. Desde una app el bitrate queda reducido.
Itunes Average Bitrate 25 Mbps Peak 31 Mbps
Disneyplus Average Bitrate 17 Mbps Peak 29 Mpbs
Netflix Average Bitrate 17 Mbps Peak 25 Mbps
Y luego aparte también depende del material que les proporcionen.
Si hubieras hecho el hilo al reves acabas antes :cuniao
En el momento en el que se usa el bitrate para medir la "calidad" es como medir distancias en kilos, nadie haría eso, ¿verdad?. Pero es que es lo que se hace con el bitrate...
Yo puedo generar un vídeo con una calidad de mierda a un bitrate altísimo, o al revés también, poder "meter" vídeo con calidad en un bitrate pírrico.
¿Cómo?. Pues es que el bitrate NO lo es todo. Es una suma de factores. Sin entrar siquiera dentro de la parte final, la propia calidad de la imagen determina el final de la misma. Eso para empezar. Y para finalizar, codec, resolución, formato, BITRATE (por supuesto), parámetros...y el buen hacer de la persona encargada o del Engine.
Pero parece que todo se reduce a que si algo va a 3mb/sec es mierda seca pero si va a 100mb/sec es oro puro. Que ojo, lo entiendo, es una forma de simplificar...pero no es así siempre. No cuando comparas codecs como Mpeg2 vs H264 vs HEVC vs VP9 vs AV1.
Un simple codec MPEG2-DVD, con el bitrate de 7 mb/sec da como resultado una imagen cuestionable en comparación con esos 7mb/sec en HEVC en FullHD, por ejemplo. Mismo bitrate, diferente codec y resolución, distinto resultado.
Yo jamás implico al bitrate en mi percepción de "calidad" cuando veo streaming. Simplemente veo la imagen y sobre ella opino. Ya está. No necesito condicionarme a "ah, que va a 40mb/sec, eso es que es guay". No es así como pienso. Sí asocio una imagen de mayor calidad cuando es en HDR, porque eso significa que COMO MINIMO se ha usado un codec eficiente y éste va a darte una calidad aceptable.
Respecto a esto:
Esto es FALSO. No se de donde se saca la información, pero ES FALSO. Yo uso las app internas de mi tele, y Apple TV se ve a la mejor calidad que puede ofrecer. ¿De verdad piensa alguien que por usar la app nativa del televisor Apple va a enviar un archivo con menor calidad?. ¡Venga hombre!. No sabéis ni de lo que habláis. Yo trabajo con este tipo de materiales y se como funciona el asunto. Ya os digo yo que no es así.Cita:
Otra cosa a tener en cuenta es que Itunes / Apple Tv no ofrecen la misma calidad desde una App en una Lg que desde el propio Apple Tv 4K. Desde una app el bitrate queda reducido.
Ahora mismo, Disney, Netflix y Apple tienen probablemente la mejor calidad de streaming. Prime Video va por barrios, pero hay veces que determinados contenidos no se sabe bien porqué no se ven del todo bien (Reacher en HDR, en SDR se ve bien), y HBO Max pues van a su bola y uno ya no sabe que esperar de ellos.
En cualquier caso, todo esto dentro de dos años cambiará de nuevo. Y dentro de cuatro también. Y dentro de 10 la calidad del Streaming probablemente alcance cotas que jamás pensábamos (pensar en 2012 y en lo que había entonces, por favor).
Al final es hablar por hablar. Dentro de 10 años nos vemos aquí y volvemos a sacar el tema, ¿os parece?. Va a ser divertido leer mensajes nuestros al respecto :-D
Respecto al tema HDR, las diferencias son marginales entre HDR10 y Dolby Vision en streaming. Si ya en físico, donde se usa la doble capa, es complicado de verlas lado a lado o un A/B doble ciego (mucho mejor), en streaming simplemente es imposible.
La ventaja de usar Dolby Vision en streaming es que tienes en un solo archivo TODAS las versiones: SDR, HDR10 y DV a la vez. No tienes que hacer tres versiones diferentes. Pasa lo mismo con Atmos, tienes metido dentro el AC3 compatible, así como el TrueHD y los metadatos Atmos.
Lo de que el bitrate es superior en el Aparato he sacado la información de foros americanos que hablan de estos temas y me fio de ellos porque la gente que escribe no lo hace con un ego y una soberbia tan grande como tu sueles hacer en cada post que se habla de temas de calidad de imagen para hacerte el listo y el resto querer dejarnos como idiotas.
A mí lo que digan "foros americanos" me da igual. En Internet se pueden leer muchas cosas y uno no puede tener nunca la fé ciega de creerlo a pies juntillas. No al menos sin comprobarlo uno mismo para salir de dudas, o si alguien trabaja en el sector, pues que te lo diga, como es mi caso, "por desgracia", según parece.
Yo no es que tenga ni un ego ni soberbia, te digo las cosas como las se, porque trabajo en ello y con ello, ¿qué culpa tengo yo?.
Ah, sí, la culpa es mía por responderte y que te ofendas por ello. Pues nada no te preocupes, no volveré a aparecer por este hilo para que usted no se ofenda tanto y me insulte por ello.
Pues sabras mucho y el resto seremos lerdos, pero yo he hecho la prueba poniendo la misma película en mi Apple TV 4K y en la app integrada de LG y se nota la diferencia una barbaridad, en la app se ve todo como comprimido y en el Apple TV se ve muy muy bien. De hecho no solo me ocurre con el contenido de iTunes, también con la app de Disney+, cuando veo el contenido desde la app de Disney+ se ve mucho, pero mucho mejor que en la app integrada. No hablo de colores o brillo, hablo de nitidez. En las apps integradas cuando me pongo cerca de la tv veo la compresión de la imagen, con el Apple TV casi no se nota. Se acerca muchísimo a la calidad que dan los blurays en nitidez y en color la lo que dan los blurays 4K. (Eso si, cargándose todo el grano de aquellas películas que lo tienen)
No se cual será el motivo, pero lo he probado en más de 5 películas y la diferencia es evidentisima. Quizás el Apple TV hace un procesado de imagen? No lo sé, pero ocurrir ocurre.
Pues será problema de recepción. En ningún momento llamo "lerdo" a nadie. Yo uso siempre las app internas de la tele y si algo estoy seguro es que la calidad que obtengo en Apple TV tanto en el servicio VOD como en iTunes, es la máxima. Ni pixelados ni compresiones ni nada de nada.
Y por supuesto lo mismo con el resto de apps. Si así fuese sería el primero en quejarme, pero no es así.
Revisa la conexión que tienes porque eso no es normal para nada.
No dices la tele que tienes y el tipo de conexión que usas, la mía es una 77C9 y por Wifi 5Ghz. Lo mismo con la de 48" CX.
Pues chico, yo te digo lo que veo y no tengo porqué engañarte ni engañarme...de hecho no en pocas ocasiones me deshago en halagos de lo bien que se ve AppleTV+ y las pelis que tengo compradas en iTunes. Asímismo con el resto de VODs, sobre todo Netflix y Disney+
Vete a saber, pero vamos, prueba a conectar por Wifi por si acaso la ethernet no te esté dando buena calidad, las LG a veces pueden ser un poco pijoteras con la conexión de red, router, etc...
En un foro americano comparaban la Aplicación Apple Tv desde una Lg y la app nativa desde el Aparato Apple Tv 4K y las diferencias eran notorias en tema de bitrate teniendo un promedio de 10-17 Mbps y 15-31 Mbps desde el propio aparato. Tus apreciaciones son ciertas y no eres el único que lo ha notado. A un amigo y a mi nos pasa exactamente lo mismo y tal y como se comenta en foros Usa es cierto que la calidad desde una app de tv es inferior a lo que se ve desde el propio aparato con contenidos itunes / apple tv. Visto lo visto nos dio por investigar y fue ahí cuando nuestras sospechas se confirmaron.
Pues revisar vuestras conexiones porque algo falla ahí.
Yo no puedo medir el bitrate de AppleTV en la LG, pero sí el de Netflix y da sus 15mbits en donde tiene que darlo (Dolby Vision), y estoy seguro que dará lo mismo en el AppleTV. No se como harán esos de ese foro americano para "medir" el bitrate de la app de la tele cuando no es posible, no al menos de una forma fácil.
En mi canal de Telegram hay gente con el AppleTV y ha comparado los mismos títulos en la tele (LG OLED) y no observan diferencias entre los dos, más allá de que el reproductor de Apple va más rápido.
A veces pienso que véis fantasmas donde no los hay, y conspiranoias en plan las apps de la tele capan la calidad. Los archivos que "sirven" a los clientes son los mismos para todo el mundo. Pero al final depende de nuestra conexión, red, operadora, etc...que puede dar al traste con todo ello.
Yo trabajo haciendo masterizados para todo tipo de clientes, se lo que hay y lo que no hay. Y lo que no hay es un "capado" de las app de la tele, al menos no en las LG OLED.
La gracia de todo esto es que ni siquiera aportáis pruebas gráficas de todo ello, solo decís que "se ve peor" y ahí cabe todo un abanico tremendo donde imaginar todo tipo de cosas y conspiraciones judeomasónicas. Y no, poner capturas de un foro de Internet donde no sabes exactamente como y de que forma han extrapolado eso...no me vale.
Ya sabéis como funciona esto, método científico. Es el único que me vale como prueba. Algo replicable, repetible y que de los mismos resultados independientemente de quién lo haga y desde donde lo haga.
Acabo de ver tu nombre, eres el mismo que en los foros de EOL todo el mundo te ignora porque eres el saber de la verdad absoluta XDD y yo perdiendo el tiempo. Iluso de mi.
En fin, no he venido aquí a demostrar nada ni a hacer un estudio científico, he explicado mi experiencia, al que le sirva bien y al que no, pues también.
Si piensas eso de mi, pues genial. A mí me da igual que me ignore la gente, yo soy honesto conmigo mismo y con los demás. A algunos les encanta que les regalen los oídos y que les digan lo que quieren oír o leer.
Yo siempre aportaré mi experiencia y profesionalidad en pro de buscar la verdad. Siempre.
El que he perdido el tiempo he sido yo. De nuevo.
P.D: Edito para añadir que ten mucho cuidado a quién lees en EOL. Pero mucho. Yo no participo en los hilos de las teles, dos tipos se encargaron de echar mierda sobre mi con la ayuda de unos cuantos acólitos que no quieren ver la realidad de según qué asuntos. No tengo más que decir al respecto.
Aparte que tu experiencia y apreciaciones también hemos sido testigos yo y un amigo, aparte de más gente en EEUU que escribe en foros americanos con diferentes conexiones de internet y proveedores. Y los más importante que por los menos quienes decimos esto tenemos un Apple Tv 4k para dar nuestra opinión, cosa que parece que quien va dando lecciones no lo ha podido comprobar por si mismo. Y claro, hay gente que ha usado herramientas para medir y dar veracidad a todo esto que estamos hablando.
Ven a mi casa y demuestrame que lo que ves se ve mal, comprimido y pixelado. Es así de sencillo. Mientras no vengas a demostrarmelo en vivo y con pruebas concluyentes, no me demostrarás nada, ni tú ni nadie.
Los ataques personales sobran, sois muy dados a atacar con el anonimato de la red. ¿Quién eres? ¿A qué te dedicas?. De mi puedes saberlo todo...o casi todo. Yo no me escondo.
Y te vuelvo a contestar a esto porque ya que no pones tú el enlace de donde has sacado esa información, lo pongo yo, que lo he encontrado:
https://www.reddit.com/r/appletv/com...s_native_apps/
Un hilo de reddit (no un foro) de hace un año donde cualquiera puede desbarrar y opinar sobre lo que quiera sin tapujos. Lo gracioso de todo esto es que te quedas de forma interesada con lo que te regala los oídos pero no eres capaz de leer el resto de mensajes donde se leen cosas como:
Cita:
Do you have a source for the bitrate difference between webOS and tvOS? It’s not that I don’t trust you, I’d just like to read more about it.
Cita:
I have a stand-alone Apple TV 4K on both of my 4K TVs and it looks as good or better than anything native on the TVs
Cita:
No offense but any time I see people complaining about "much worse image" without backing it up with anything substantial I assume they are the people who watch movies with the default showroom picture settings, cranked brightness and saturation and max frame interpolation. Then they plug in an HDMI source with more neutral settings and think it's the device's fault.
Cita:
I have the same LG CX and I did buy an Apple TV 4K, after going through a fire cube and shield tube. The other 2 couldn’t keep up with high bitrate 4K video in Plex.
To my eye the video from the Apple TV and the lg are identical as is the audio out to my stereo.
Supongo que todos esos también deben ser unos iletrados, vete al hilo de Reddit y les dices que no tienen ni idea, no se.Cita:
Same visual quality. Obviously make sure you set the Apple TV up appropriately for Dolby Vision and such. The Apple TV will of course outperform the lg entirely in responsiveness and speed loading things across the board.
Por cierto, el tipo que suelta lo del bitrate ni aparece ni dice nada más. Un ejemplo más de soltar la mierda y largarse cagando leches para generar un hilo absurdo donde alguno pierde el norte hablando de cosas sin sentido.
No hombre no, estas cosas no son así.
Por eso cuando "alguien en un foro" suelta algo de este estilo, arqueo mucho la ceja, porque mira, no estamos en tiempos de creer cualquier cosa que alguien diga en Internet. Por eso insisto: Te vienes a mi casa, lo vemos en vivo y dictaminamos si es o no es así lo que afirmas.
¿Hace?. Pues claro que no, hombre. Claro que no aceptarás la invitación, ¿para qué, verdad?
Lo de que las pelis tenían más bitrate en el aparato que en la app fue un fallo puntual que los arreglaron hace meses.
Confirmo las observaciones arriba descritas: hay diferencias de calidad según el dispositivo utilizado para el visionado en streaming de una peli. Por ej. Foundation se ve mejor en un dispositivo Apple (usé un Mini M1) que en un Fire Stick 4k. Supongo que no todos los dispositivos descodifican de igual manera incluso suponiéndo que el bitrate fuera igual. Lo mismo que con los lectores de BR UHD de distintas marcas y gamas. Es de sentido común. También es de sentido común pensar que una plataforma de streaming intentará favorecer a los que se compraron el dispositivo casero...
Esto no es así, no pienses en conspiraciones porque no las hay. Los que hacemos archivos para plataformas nos piden unos archivos concretos y pista. Estos se alojan en sus servidores y es lo que se sirve a todo el mundo.
Lo que sucede es que tienes que codificar diferentes versiones, calidades, resoluciones y codecs porque no todos los reproductores aceptan el mismo archivo.
Dejando de lado el tema de ajustes de imagen o de si el dispositivo reproductor altera la imagen original que recibe.
Lo he comprobado : la calidad video de Foundation en mi Mini M1 es mejor (mas definida) que con el Fire Stick 4K. Esto no significa que el flujo digital sea diferente. Sólo significa que si te compras un Mac (o, como otros lo señalaron mas arriba, un Apple TV 4K), obtendrás una imagen de mejor calidad. ¿Porqué? No lo sé pero no deja de ser curioso…
Pero eso no es una prueba de nada...habría que descargar el archivo y verlo en un ordenador, que no aplicase ningún filtrado ni nada. Estos reproductores pueden incorporar algún tipo de procesado EXTRA que no viene en el archivo original.
Por eso siempre digo de usar las aplicaciones nativas de las teles, no suelen tocar nada de la imagen.
También, algo tan tonto como usar un modo de imagen ligeramente diferente, hace que la percepción sea diferente. Mismamente el tener la nitidez a 0 en uno y en otro a 10 o así, por el motivo que sea. Lo se, porque me ha pasado.
No estoy tan seguro que porque te compres un mac o uses un dispositivo de Apple, la imagen de ellos "mágicamente" sea mejor. No es así como debería funcionar esto.
Como no estoy delante de tu tele para ver exactamente qué haces, metodología, pruebas y etc, pues todo lo cedo a la imaginación, y con ella poco puedo hacer más allá de elucubrar.
Llamé SAT de Apple para preguntar esto. Total, es gratis.
Me dijeron que ni bitrate ni la calidad de imagen en general debería ser superior usando un Apple TV 4K respecto a la app TV que ellos desarrollan para el resto de dispositivos de terceros. Es más, me aseguraron que los ficheros en si son idénticos (salvo si obviamente tu dispositivo no soporta H265 o algo así, que entonces se te envía en H264).
Solo hay una excepción. En navegador web, de momento no permiten resolución 4K (ni en navegadores que soporten al 100% el DRM necesario), y ahí el bitrate si que es algo inferior a las apps dedicadas. Pero es el único caso.
Claro, es que es de cajón. Pero está muy bien que hayas llamado a Apple, al final son los únicos autorizados para dar la respuesta más correcta y certera, independientemente de que podamos opinar si esto o lo otro. Así que la duda está resuelta: Mismo archivo para todos.
Sigo pensando en que luego hay postprocesados por parte bien del aparato reproductor, o bien settings de la tele diferentes que alteran la imagen. No son pocas veces que sin querer he modificado una de las presets para comprobar cosas, se me ha olvidado volver a ponerla como estaba, y he visto diferencias entre una y otra fuente, y resultó ser eso.
El Apple TV no aplica ningun post procesado raro... si lo configuras correctamente. Por defecto viene en 4K DV (si tu tele lo soporta), forzado para todo, incluso señales SDR. Por fortuna se puede corregir. Yo lo tengo en 4K SDR 60hz 4:4:4 por defecto (menús y demás) y luego le tengo activado la coincidencia automática de rango y fotogramas, para que conmute según el contenido cuando pulsas play. Según Apple eso es lo más correcto. Así lo que está en SDR se ve en SDR, lo que está en HDR10 en HDR10, y lo que está en DV pues en DV. Y sin judder.
Y luego personalmente he comprobado que, con los mismos settings en SDR, HDR10 y DV que las apps internas de la tele, y con la nitidez a 0 (muy importante esto), el Apple TV se ve EXACTAMENTE igual que la app interna de mi LG OLED.
O sea que todo está bien.
Escribo desde un Mac, así que voy a reproducir algo desde la app TV del sistema para ver si Mac OS está haciendo algo raro. Ahora os digo.
Ah, ya veo lo que pasa. Apple está siendo mala. :cuniao
He reproducido un trocito de Fundación en la app TV del Mac y parece estar aplicando un poco de realce de contornos. No entiendo por qué. Se ve más "nitido" pero un poco plastificado.
Obviamente, al ser un ordenador, no hay ningun tipo de filtrado disponible en los ajustes de la app, o sea que viene de la fuente.
No lo entiendo.
Lo que yo te digo, algún procesado imposible de desactivar. Hay teles de hecho que tienen cositas así, como las Philips. Y da igual lo que hagas, no puedes desactivarlo.
Pero aplicar un poco de nitidez no hace que se vea mejor, es una falsa apariencia. Como con muchos mitos, es fuente de discusiones estériles por mucho que se den explicaciones técnicas. Al final prima el "yo lo veo mejor". En estos casos, yo prefiero sencillamente callar y asentir. No queda otra :-D
A mi hermano le va a regalar Orange una Xiaomi de 55 4K HDR y me pregunta que si le va a joder los ojos o no se va a acostumbrar ya que sustituye a una 37 FullHD de Philips. Me dice que si se verá mejor la imagen. Además de decirle que sí le valdrán esas pulgadas, verá mejor imagen, AUNQUE puede ser que no lo aprecie al principio por la nitidez intrínseca de la Philips. Esa Philips era mía y la anterior de 32 también la vi mucho. Cuando voy para allá los fines de semana parece en algunos casos que tiene una imagen muy buena equiparable a una TV 4K HDR. Por ello, el gusto de cada uno es muy particular.
Philips tiene un procesado muy especial, ya digo que da igual lo que bajes la nitidez, el patrón black clipping para eso es muy eficaz, revela nitidez oculta muy fácilmente :-D
Y lo se porque tengo una. Y no me gusta, pero me salió barata.
Ahora que comentáis esto, hace poco me di cuenta de una cosa que me pareció muy curiosa pero que por suerte encontré la forma de solucionarla. Y eso que creía que no se podía, pero bueno...
El caso es que este verano, después de haber buscado durante un tiempo, pude comprarme por fin un proyector 4k (normalito) y dar por fin el salto a la ultra alta definición en lo que a proyección se refiere. Y al principio, cuando reproducía UHDs, se veía fantástico, una auténtica pasada, pero cuando reproducía BDs me daba la sensación de que, aunque el contraste y la colorimetría sí que eran mejores que con el anterior proyector, había una especie de, no sabría cómo llamarlo: ¿”sobredelineación” de contornos?, una cosa muy extraña que hacia que la imágen se quedara muy cortita en términos de definición (repito que en comparación con el anterior proyector; ¡pero es que no le encontraba sentido porque al fin y al cabo en las dos circunstancias estaba reproduciendo Blurays!). Pues bien, trasteando un poco con el reproductor, me encontré que había un apartado donde podías configurar el escalado a 4k, y vi que hasta ese momento lo había tenido en desactivado, así que lo activé para probar si esto podía ser lo que solucionase el problema y, ¡bingo!, nada que ver. Ahora por fin puedo disfrutar de los BDs aprovechando toda su capacidad. Pero esto ha hecho que me pregunte si realmente estoy viendo 1080p nativos o no, siempre había pensado que el reescalado lo que hace de alguna manera es alterar la imagen original, pero es que si no lo tengo activado la calidad de imagen se resiente y pierde incluso en comparación con un proyector 1080p nativo, y a esto no le acabo de encontrar sentido. Es como si los pixeles que no estás utilizando, si no reescalas, siguieran presentes en la imagen obstaculizando la misma. No sé, muy extraño.
En fin, espero haberme explicado bien. Y espero que sirva un poco de aviso para quien pueda tener problemas parecidos donde el reescalado podría resultar de gran ayuda. Aunque también me da la sensación que esto es más propio de un error de novato :sudor
Pues es raro eso, muy probablemente sea un escalado con aplicación de filtrado de nitidez o similar. Es decir, como en los televisores, las celdillas son las que son, si es 4K, algo a 1080P un pixel va a ocupar el espacio de 4 en 4K. Un escalado que haga algún procesado extra, intentará sacar "detalle" interpolando pixeles.
Hay muchos tipos de escalados, y cada uno da diferentes resultados, no es lo mismo un Bilinear que un trilinear, un bicúbico, etc...
https://en.wikipedia.org/wiki/Compar...ing_algorithms
El escalado más sencillo de todos es el "nearest neighbor", pero usualmente se usa bilinear o bicúbico. Cuanto más se intenta sacar "información" más artefactos se puede crear.
Todo esto obviamente puede cambiar dentro de pocos años con la aplicación de escalados de próxima generación basados en IA en tiempo real, que nos vuele la cabeza.
Yo mismo usando Topaz Video AI flipo con lo que se puede llegar a hacer, pero si partes de una imagen muy mala los resultados son...muy malos, obviamente.
Pues no lo se...se que hay proyectores que no son 4K reales, que hacen un "pixel shift" para simularlo, moviendo físicamente el panel LCD a velocidades muy rápidas.
Pero no tiene mucho sentido eso. Prueba a pasar el patrón black clipping mientras activas y desactivas esa función, si aprecias en los bordes de cada barra vertical dos barritas pequeñas, entonces se está aplicando una sobre-nitidez.
Tengo un vídeo sobre este tema en concreto, es más fácil de entenderlo así:
https://www.youtube.com/watch?v=pms7SjXzO8I