En vivo
Buscar

El alquiler de GPU de NVIDIA se dispara hasta un 48%

La escasez de chips de IA eleva los precios en la nube: alquilar una H200 cuesta ya 4 dólares por hora, frente a los 2,75 de hace meses.

Por Carlos García·miércoles, 15 de abril de 2026·4 min lectura
Ilustración: El alquiler de GPU de NVIDIA se dispara hasta un 48% · El Diario Joven

El mercado de computación en la nube para inteligencia artificial atraviesa una crisis de precios sin precedentes. Alquilar una GPU de NVIDIA ya no es lo que era: en los últimos meses los costes han subido entre un 20% y un 48% según el modelo, y la tendencia no da señales de revertirse. La causa es una combinación de demanda desbocada, capacidad de producción limitada y miles de millones de dólares fluyendo hacia el sector de la IA.

Para entender el problema hay que diferenciar entre dos tipos de actores. Por un lado, los hiperescaladores: Amazon, Microsoft, Google, Meta o Tesla, que construyen sus propios centros de datos y los llenan de decenas de miles de GPUs, mayoritariamente de NVIDIA, la empresa que domina este segmento de mercado con modelos como la H100, la H200 y la B200. Por otro lado, están las empresas de IA que no tienen infraestructura propia y que necesitan alquilar capacidad de cómputo a esos grandes propietarios para entrenar modelos o ejecutar inferencias.

Este segundo grupo es el que más está sufriendo la subida de precios. Servicios como Amazon Web Services, Google Cloud y Microsoft Azure actúan como arrendadores masivos de GPUs: compran grandes lotes de chips, los integran en su infraestructura y los ponen a disposición de cualquier empresa que quiera pagar por horas de computación. Es un modelo similar, en concepto, al que NVIDIA lleva años aplicando en el videojuego con su plataforma GeForce Now, pero a una escala y con unas cifras radicalmente distintas.

Los datos que maneja Carmen Li, CEO de la firma de análisis Silicon Data y citada por Business Insider, ilustran la magnitud del problema. Las GPUs H100, ya consideradas veteranas en el sector, han subido un 20% en tres meses: de 2,20 dólares por hora a 2,64. Las B200, más recientes, siguen una trayectoria parecida, pasando de 4,40 a 5,35 dólares por hora. Pero el salto más llamativo es el de las H200: de 2,75 dólares hora a 4,08, lo que representa un incremento del 48% en apenas un par de meses. Casi el doble por el mismo producto.

Detrás de estos números hay un desequilibrio estructural entre oferta y demanda. Los fabricantes de componentes necesarios para producir estas GPUs no pueden seguir el ritmo que el mercado exige. Los tiempos de espera para recibir nuevos chips se han disparado hasta entre 36 y 52 semanas, según fuentes del sector. Con tan poca GPU disponible para tantos compradores, los precios de alquiler en la nube no hacen más que subir. CoreWeave, una de las empresas especializadas en este modelo de negocio, ya subió sus tarifas un 20% hace unos meses, y además amplió el contrato mínimo de permanencia de uno a tres años.

La situación tiene un efecto dominó que va más allá de la IA. La acaparación de producción por parte de los grandes actores del sector está generando escasez de componentes en el mercado de consumo: memorias RAM, SSDs y otros elementos escasean o encarecen de forma notable. Valve ha tenido que posponer el lanzamiento de Steam Machine y Apple eliminó recientemente las configuraciones de mayor memoria en sus modelos Mac Mini y Mac Studio. No hay componentes para todos, y los que hay tienen un precio cada vez más alto.

En términos de inversión, la magnitud del fenómeno es difícil de exagerar. Entre las tres grandes tecnológicas estadounidenses y Meta, el gasto previsto en infraestructura de IA solo en 2024 supera los 650.000 millones de dólares. Esa inyección masiva de capital alimenta la demanda de chips, pero los fabricantes no pueden satisfacerla a corto plazo. Como consecuencia, incluso las GPUs de segunda mano mantienen su valor de forma inusual: una H100 usada con dos años de vida puede venderse por 85 céntimos por dólar de su precio original, y con tres años, todavía por 84 céntimos.

El horizonte no apunta a una mejora inmediata. El auge de la IA agéntica, es decir, sistemas de inteligencia artificial capaces de ejecutar tareas en varios pasos de forma autónoma, implica un consumo de cómputo por solicitud muy superior al de los chatbots tradicionales. Cada agente que opera de forma autónoma consume más recursos que una simple consulta, lo que multiplica la presión sobre una infraestructura ya al límite. Según las previsiones que maneja el sector, la demanda de computación en la nube para IA seguirá creciendo de forma sostenida en los próximos años, sin que la oferta de chips pueda equilibrarse a corto plazo. El resultado es un mercado que, como alertan algunas voces del sector, se parece cada vez más al de la energía eléctrica: volátil, dependiente de factores externos y con precios que suben y bajan al ritmo de la geopolítica, la tecnología y el capital especulativo.

Compartir:XFacebookWhatsAppEmail

Redactado por inteligencia artificial · Revisado por la redacción

También te puede interesar