Anthropic, la compañía de San Francisco responsable de Claude, está explorando la posibilidad de diseñar sus propios chips de inteligencia artificial. La información, adelantada por Reuters y confirmada por múltiples fuentes del sector, llega en un momento de crecimiento acelerado: la empresa ha pasado de unos 9.000 millones de dólares de ingresos anualizados a cierre de 2025 a superar los 30.000 millones en abril de 2026, según datos publicados por la propia Anthropic en su web corporativa. El proyecto se encuentra en una fase temprana —sin un diseño concreto ni un equipo dedicado aún—, y la compañía podría decidir seguir comprando procesadores a terceros en lugar de fabricar los suyos. Pero el simple hecho de que lo esté considerando ya dice mucho sobre hacia dónde se dirige la industria.
La noticia no llega en el vacío. En la misma semana en que trascendió la exploración del silicio propio, Anthropic anunció un acuerdo multianual con CoreWeave para utilizar su infraestructura cloud de GPUs Nvidia en el despliegue de los modelos Claude. Un día antes, CoreWeave había cerrado una ampliación de 21.000 millones de dólares con Meta. Y pocos días antes, Anthropic firmó un pacto a largo plazo con Google y Broadcom para acceder a 3,5 gigavatios de capacidad de cómputo basada en TPUs (Tensor Processing Units, los chips diseñados por Google), con despliegue previsto a partir de 2027. Todo ello se suma al compromiso que Anthropic ya tenía con Amazon, cuyo proyecto Rainier desplegó más de un millón de chips Trainium2 para entrenar y ejecutar Claude.
Por qué Anthropic necesita tanto silicio
Para entender la magnitud de la jugada, conviene repasar las cifras. Claude ha triplicado sus ingresos anualizados en apenas cuatro meses, y según datos recogidos por Silicon Republic, Anthropic captura ahora más del 73 % de todo el gasto de empresas que compran herramientas de IA por primera vez, frente al 27 % de OpenAI. Es un dato que refleja no solo la calidad técnica de sus modelos (la familia Claude incluye ya versiones como Sonnet 4.6 y Opus 4.6), sino la velocidad a la que las grandes corporaciones —más de 500 clientes gastan ya por encima de un millón de dólares anuales— están integrando la IA en sus flujos de trabajo.
Ese crecimiento explosivo se traduce en una demanda de cómputo igualmente explosiva. Entrenar un modelo de frontera requiere decenas de miles de chips funcionando en paralelo durante semanas. Y después viene la inferencia: cada vez que alguien hace una pregunta a Claude, el modelo necesita procesadores para generar la respuesta. Con miles de millones de consultas al año, la factura energética y de hardware se convierte en el principal cuello de botella. Ahora mismo, Anthropic reparte esa carga entre GPUs de Nvidia, TPUs de Google y chips Trainium de Amazon. Pero depender de tres proveedores externos para tu recurso más crítico es un riesgo estratégico que ninguna empresa con 30.000 millones en ingresos puede ignorar.
La fiebre del silicio propio en la industria de la IA
Anthropic no sería la primera en dar el salto. Meta lleva años desarrollando sus chips MTIA, y OpenAI trabaja con Broadcom en un programa de silicio personalizado que podría alcanzar los 10 gigavatios de capacidad. Google fue la pionera con sus TPUs, cuya séptima generación —denominada Ironwood— ofrece, según algunos analistas, un rendimiento comparable o superior al Blackwell de Nvidia en ciertas tareas. Amazon tiene sus Trainium, Microsoft su Maia, y hasta startups como Cerebras o Groq buscan su hueco con arquitecturas radicalmente distintas.
El hilo conductor es claro: los mayores consumidores de chips de IA quieren dejar de ser rehenes de Nvidia. Según un análisis de JPMorgan recogido por Yahoo Finance, los chips personalizados diseñados por Google, Amazon, Meta y OpenAI podrían representar el 45 % del mercado de aceleradores de IA en 2028, frente al 37 % en 2024. La cuota de Nvidia, que ronda el 80-85 % actualmente, se proyecta hacia el 75 % en 2026 a medida que el mercado total supera los 200.000 millones de dólares. Es decir, Nvidia seguirá creciendo en términos absolutos, pero su dominio relativo empezará a ceder.
Para un gigante como Anthropic, el cálculo tiene una lógica contundente. Diseñar un chip avanzado de IA cuesta alrededor de 500 millones de dólares, según fuentes del sector citadas por Reuters. Es una cifra enorme, pero manejable para una empresa que recaudó 30.000 millones de dólares en su ronda Serie G en febrero de 2026 —con una valoración post-money de 380.000 millones— y que genera ingresos a un ritmo que supera ya los 30.000 millones anuales. El retorno potencial es considerable: controlar tu propio silicio significa optimizar los chips específicamente para la arquitectura de tus modelos, reducir costes por inferencia y, sobre todo, no depender de la disponibilidad y los precios que imponga un tercero.
Qué significa para Nvidia y el mapa del sector
Conviene no adelantar el funeral de Nvidia. La compañía de Jensen Huang sigue siendo, con diferencia, el actor dominante. Su ecosistema CUDA, con más de 20 años de desarrollo y millones de programadores formados en él, crea un efecto cerrojo que ningún chip personalizado puede replicar de la noche a la mañana. Y mientras sus clientes diseñan silicio a medida para tareas de inferencia de alto volumen —donde el coste por token manda—, Nvidia retiene un control casi absoluto del entrenamiento de modelos, donde la flexibilidad y la potencia bruta son insustituibles. Su nueva plataforma Vera Rubin, prevista para finales de 2026 con memoria HBM4, promete mantener esa ventaja técnica.
Pero la tendencia de fondo es innegable. Lo que el sector está construyendo es un futuro multi-proveedor donde ninguna empresa depende de un único fabricante de silicio. Los analistas lo describen como un modelo híbrido: chips personalizados para cargas de trabajo estables y masivas (inferencia a escala), GPUs de Nvidia para investigación, experimentación y tareas que requieren máxima versatilidad. Si Anthropic avanza con su proyecto, se unirá a un grupo selecto de compañías que controlan toda su cadena de valor, desde el modelo matemático hasta el silicio que lo ejecuta.
Para quienes siguen la industria tecnológica desde fuera —y especialmente para una generación que usa Claude, ChatGPT o Gemini a diario—, la noticia tiene una lectura interesante: las guerras de la inteligencia artificial ya no se libran solo en los laboratorios de investigación. Se libran en las fábricas de chips, en los contratos energéticos de gigavatios, en las plantas de empaquetado de TSMC que operan al 100 % de capacidad. La IA generativa ya no es un experimento de Silicon Valley. Es una industria pesada que mueve cientos de miles de millones y que, pieza a pieza, está redibujando la geopolítica del silicio.
Anthropic todavía no ha confirmado oficialmente la iniciativa —un portavoz declinó hacer comentarios sobre la información de Reuters— y puede que al final opte por seguir comprando chips y no diseñarlos. Pero incluso esa posibilidad de diseño propio marca un punto de inflexión. Cuando una empresa que hace tres años apenas facturaba decide que necesita controlar su propio hardware, es que el juego ha cambiado de escala. Y eso, para bien o para mal, es exactamente lo que está ocurriendo en la IA en 2026.