Me cago en el Re-Size Bar y en la informática en general

Hoy estaba en mis quehaceres cotidianos cuando el lector de RSS me salta con una noticia del tipo «¡¡¡¡hey!!!! ¿te acuerdas de la GeForce 256?»… obviamente un fucking nostálgico como yo pincha, en la noticia aparecía una imagen de la caja de uno de los modelos de ASUS.

Examino lo imagen con lupa retrotrayéndome a esa época, observo todos los logos maravillándose, Dx7… joder tio!!! Dx7… me leo todas las tecnologías que incorpora… T&L… oh Dios!!!! (¡¡¡¿¿¿eres consciente de lo que esa tecnología descongestionaba la cpu de trabajo???!!!) y me paro en «AGP 4X with Fast Writes» mmm AGP 4X ¡que grande!… ¡espera! ¡wait! ¿Fast Writes? mmm ¿eso no era una de esas magnificas tecnologías que te obligaban a invertir para luego no notar nada? vaya! creo que si pero no recuerdo que hacia exactamente… voy a investigar.

Googleo la frase «agp4 fastwrites» y aparecen un montón de webs de la época entonces me paro en «Annandtech» que es de fiar y entro a ver que cuentan… y me encuentro está magnifica revelación.

Y digo ¡coño! ¡para mi que este esquema lo he visto hace poco en algún sitio! mmm voy a pensar… a si!!!!!!!! jodeeeeeeeeeeeer!!!!!!!!!

¡¡¡Vaya revelación!!! resulta que un concepto que ya existía en gráficas de hace 20 años hoy se está vendiendo como algo revolucionario ¡manda webs! ya me imagino a los ingenieros en esa época: ¿ey Mike pasar 900MB a la gráfica? ¡que locurón si las gráficas tienen 32MB de VRAM! mientras algún jefazo les diría: bueno vosotros guardar las patentes y los diseños que dentro de unos 20 años las texturas pesarán mas que el Windows 98 S.E.

Bromas a parte, este tema es muy curioso porque obviando que la tecnología en si es distinta hace 20 años ya vieron el problema que se acabaría presentando a largo plazo y aun así… se siguió obviando el problema hasta que algún «iluminado» en AMD pensó que podía cambiar de paquete esta idea y volver hacer caja con ella.

El 4K es mentira y con la nueva generación de nVidia se demuestra

Siempre he dicho que el 4K ha venido adelantado a su época, que por algún motivo la tecnología en el desarrollo de paneles de LED ha acelerado mucho más que la tecnología que se encarga de alimentar el contenido de esos paneles, es decir, la tecnología de las tarjetas gráficas o compresión de video.

Ya se está empezando a oír hablar del 8K cuando no existe, repito, no existe hardware suficientemente potente con un precio de la tierra para mover el 4K.

Estamos al inicio de la generación Turing de nVidia, la que nos promete los ansiados 4K@60fps y empiezan a aparecer gráficas de rendimiento y se demuestra lo que siempre he dicho, sale una nueva generación y puede a 4K con todo lo anterior a esta pero en los juegos nuevos a duras penas se consiguen los 60 fps… para prueba un chart de videocardz.com.

A muchos está gráfica les hará llorar delante de sus monitores 4K

En esta gráfica se puede apreciar como en el nuevo juego Shadow of the Tomb Raider una RTX2080, gráfica de 850 €, funciona de media a 47 fps, la que se acerca a los 60 fps con 59 fps es su hermana mayor, la RTX2080ti, gráfica de más de 1000 €.

No se trata de un ataque a nVidia, ni muchísimo menos, soy poseedor de una GTX1080 y contentísimo, se trata de una crítica al rumbo que parece está tomando la industria y la, inentendible, necesidad de los usuarios por llegar a esos 4K. Existen técnicas para limpiar la imagen y que no se noten los dientes de sierra, los 1440p son cojonudos también pero da la impresión de que quieren que nos olvidemos de esos 2K, la lógica parada después del 1080p, en pro del 4K para que nos compremos los nuevos televisores de Samsung y compañía.

¿Queremos 4K en contenidos multimedia no? pues para empezar, si pones un Blueray a 1080p existe granularidad en la imagen… si te fijas bien verás que la imagen no es de 1920×1080 es algo menor. Si pones una película en streaming en 4K no está transmitiendo ni de coña a 4K tienen que bajar el bitrate porque no existe conexión a internet que lo aguante por lo cual la resolución es 4K pero el contenido no es 4K.

¿Queremos 4K en juegos? pues que empiecen a optimizar las texturas, investiguen en técnicas para comprimir estas mucho más eficientes o en motores gráficos ideados para el 4K, y por supuesto, cuando programen no unan elementos gráficos que tiren para bajo el rendimiento, osea, que programen con cabeza pensando en grandes requerimientos…

Por mi parte, me quedo de momento con mi TV y monitor de 1080p, en el futuro iré a por un monitor de 1440p y cuando contenido y requerimientos se unan para aprovechar el 4K entonces me pasaré al 4K.