Skip to main content

La Nvidia RTX 4090 puede ser el componente PC que más energía consuma de la historia

Nvidia 5 Nanometer GPU To Honor Ada Lovelace
(Image credit: Nvidia)

Mientras todos seguimos esperando a que Nvidia lance por fin la RTX 3090 Ti que anunció en el CES 2022, otros tienen puesta la mirada en la Nivida RTX 4090. Según los rumores, ésta podría ser la tarjeta gráfica que más energía consuma de todos los tiempos. 

Como apunta VideoCardz (opens in new tab), las filtraciones vienen de dos conocidos filtradores de hardware en Twitter:  @greymon55 (opens in new tab) y @kopite7kimi (opens in new tab). El primero afirma que Lovelace, la arquitectura de las nuevas tarjetas gráficas de Nvidia, saldrá en septiembre de 2022 y tendrá un TGP de hasta 850W. 

@kopite7kimi respondió a esa afirmación asegurando que es sólo un rumor y que su información dice que llegará hasta 800W para la RTX 4090. Da igual: tanto si el estandarte de la próxima generación RTX consume 800W u 850W, sigue siendo un monstruo hambriento de electricidad.

Aún faltan siete meses para septiembre de 2022. Es mucho tiempo y quizás estos rumores sean demasiado tempranos para tomarlos demasiado en serio. A medida que nos acerquemos a la supuesta fecha de salida, tendremos una imagen más clara, como siempre.

See more
See more

Análisis: ¿de verdad serán 850 vatios?

Un TGP de 850W para una tarjeta es un requisito extremadamente alto. Ahora mismo, la GPU con el consumo más algo es la Nvidia GeForce RTX 3090 y ésta tarjeta gráfica "sólo" tiene un TGP de 350W. Si realmente la RTX 4090 tiene un requerimiento de energía tan elevado, tu PC necesitará de una fuente de alimentación absolutamente inmensa. 

Con la RTX 3090 de 350W, Nvidia recomienda una fuente de alimentación para PC de no menos de 750W. Si Nvidia aumentara el requerimiento para la RTX 4090 según el rumor de los 850 W, es probable que necesitases una fuente de alimentación de 1.200 W o más para poder utilizarla. Esta fuente de alimentación es más potente que la que que yo utilizo en mi laboratorio. 

Wccftech afirma que las nuevas tarjetas utilizarán PCIe 5.0 para suministrar tanta potencia y han publicado capturas de pantalla de algunos cables de alimentación que podrían suministrar hasta 600 W a la GPU. Pero todavía no se ha demostrado que sean reales y, aunque lo fueran, exigir eso para alimentar una nueva tarjeta gráfica sería problemático. 

Todo esto me recuerda a los meses previos al anuncio de la RTX 3080, cuando todo el mundo andaba preocupado por tener que actualizar las fuentes de alimentación para actualizar su tarjeta gráfica. Al final, el rumor quedó descartado cuando Nvidia incluyó un adaptador para su nuevo y extraño conector de alimentación y todos los terceros  fabricantes de GPUs del mercado ni siquiera se molestaron en utilizarlo. 

Yo no creo que Nvidia vaya a lanzar una tarjeta gráfica con un requisito de alimentación tan elevado. Miles de clientes se encontraría con que las fuentes de alimentación no existen. Eso por no hablar del enorme impacto medioambiental: no sólo el impacto de fabricar más tarjetas gráficas, sino además el impacto de fabricar nuevas fuentes de alimentación, los residuos de fuentes de alimentación usadas y la energía que se consumiría.

Por último, muchos gamers de PC querrán tener una RTX 4090 pero no querrán algo que utilice exclusivamente la tecnología PCIe 5.0. La única plataforma compatible es Intel Alder Lake y eso limita aún más el mercado de estas tarjetas gráficas.

Aunque no quiero descartar la posibilidad totalmente, los argumentos en contra tienen un peso enorme. Y, al final, la mejor razón para evitar estos consumos es que la RTX 3080 se puede instalar en prácticamente cualquier PC de juegos con una ranura PCIe. 

Jackie Thomas is Deputy Editor at Decisionary. Previously, she was TechRadar's US computing editor. She is fat, queer and extremely online. Computers are the devil, but she just happens to be a satanist. If you need to know anything about computing components, PC gaming or the best laptop on the market, don't be afraid to drop her a line on Twitter or through email.