En vivo
Buscar

Anthropic recorta prestaciones y sube precios a los desarrolladores

Lo que empezó como una promesa de IA más ética y eficaz para programar termina con límites de cómputo, peor rendimiento y facturas más altas.

Por Carlos García·miércoles, 15 de abril de 2026·4 min lectura·6 vistas
Ilustración: Anthropic recorta prestaciones y sube precios a los desarrol · El Diario Joven

Había una vez una empresa de inteligencia artificial que conquistó a los desarrolladores con un agente de código brillante y un modelo que parecía entender de verdad lo que pedías. Esa empresa era Anthropic, y durante meses fue la alternativa seria a OpenAI: más rigurosa, más transparente, más centrada en el usuario técnico. Ahora, en el primer semestre de 2026, ese relato está cambiando a marchas forzadas.

El primer aviso llegó el 2 de abril, cuando Stella Laurenzo, directora senior en el grupo de IA de AMD, publicó en el repositorio oficial de Claude Code en GitHub un análisis que levantó ampollas. Había estudiado casi 6.600 sesiones reales del agente, con cerca de 235.000 llamadas a herramientas y unos 18.000 bloques de razonamiento distribuidos en cuatro proyectos distintos. Su conclusión era clara: el rendimiento había caído de forma significativa tras las actualizaciones de febrero.

Los datos que Laurenzo aportó son concretos. Entre enero y mediados de febrero, Claude Code leía 6,6 archivos por cada archivo que modificaba. Tras los cambios de febrero y marzo, esa proporción se desplomó a 2,0. Además, el porcentaje de ediciones realizadas en archivos que el modelo no había revisado recientemente pasó del 6,2% al 33,7%, es decir, uno de cada tres cambios de código se hacía, en la práctica, a ciegas. Para rematar, el razonamiento visible del modelo se redujo de una media de 2.200 caracteres a apenas 600. El coste del proceso se multiplicó por 122, aunque en ese periodo también aumentó el número de agentes concurrentes utilizados, lo que complica la lectura directa de esa cifra.

La respuesta oficial de Anthropic la firmó Boris Cherny, responsable de Claude Code. Cherny confirmó dos cambios reales: el 9 de febrero, el modelo Opus 4.6 adoptó por defecto el llamado «razonamiento adaptativo»; el 3 de marzo, el nivel de esfuerzo predeterminado pasó de alto a medio, situándose en lo que Anthropic describe como el nivel óptimo entre inteligencia, latencia y coste. Sobre la reducción del razonamiento visible, Cherny explicó que se trataba de un cambio de interfaz para reducir la latencia, no de una degradación real del modelo. Laurenzo había anticipado esa posibilidad e intentó filtrarla en su metodología, pero sus datos seguían apuntando a una caída de rendimiento. Cherny dio el debate por cerrado. Muchos desarrolladores no lo dieron.

Capacidad al límite

Paralelo a ese debate técnico, emergió otro problema más estructural. Thariq Shihipar, del equipo de Claude Code, reconoció en marzo que Anthropic estaba ajustando los límites de sesión de cinco horas durante las horas pico. El argumento fue que la medida solo afectaría al 7% de los usuarios más intensivos. Pero esa misma voz también había declarado antes que Anthropic no degrada sus modelos para gestionar la demanda, una afirmación que resulta difícil de sostener cuando simultáneamente se reconoce que se recortan recursos en momentos de alta carga.

Otro cambio que pasó más desapercibido, pero que golpeó especialmente a los usuarios de sesiones largas: la caché de prompts de Claude Code se redujo de una hora a cinco minutos, lo que disparó el consumo de cuota en proyectos extensos. Anthropic aclaró a VentureBeat que las cuentas de tipo Team y Enterprise no se ven afectadas por esos límites de sesión, pero el patrón es difícil de ignorar: los recursos escasean y se racionan, aunque la empresa evite usar esa palabra.

El modelo de precios cambia

La pieza que ha terminado de encajar el puzzle llegó cuando The Information reveló que Anthropic está modificando la forma de facturar a los clientes de sus planes Enterprise. El modelo anterior era una suscripción de 200 dólares al mes con un uso de modelos incluido en tarifa plana. El nuevo esquema establece una cuota base de 20 dólares por usuario y mes, a la que se suma el consumo real de cada usuario a los precios estándar de la API. La propia documentación actualizada de la empresa lo especifica sin ambigüedades: el uso no está incluido en la tarifa por asiento. El efecto para usuarios intensivos podría suponer doblar o triplicar la factura mensual, según las estimaciones que circulan en foros especializados. Además, desaparecen los descuentos del 10% al 15% sobre la API que antes se incluían en los planes y que permitían escalar el consumo de tokens de forma más asequible.

No es un fenómeno exclusivo de Anthropic. OpenAI reajustó los precios de su herramienta Codex para alinearlo con el consumo de tokens en lugar de facturar por mensaje. GitHub actualizó sus límites de uso alegando que la demanda intensiva genera tensión en su infraestructura compartida. La plataforma Windsurf eliminó su sistema de créditos en favor de cuotas diarias y semanales. Replit hizo un movimiento similar que también generó críticas entre sus usuarios. El denominador común en todos los casos es idéntico: la demanda crece más rápido de lo que la infraestructura puede absorber, y las plataformas están ajustando sus modelos comerciales para equilibrar esa ecuación.

El CEO de Retool, David Hsu, lo resumió con una frase publicada en The Wall Street Journal: aunque prefería Claude Opus 4.6 para potenciar sus agentes de IA, tuvo que cambiar al modelo de OpenAI porque Anthropic «no para de caerse todo el tiempo». Es el coste real de la escasez de cómputo, más allá de los debates sobre degradación de modelos.

Lo que está ocurriendo con Anthropic es, en realidad, un ciclo muy conocido en la industria tecnológica. Una plataforma conquista a sus usuarios ofreciendo condiciones generosas, construye una base de dependencia y, una vez consolidada su posición, ajusta precios y condiciones. No hay evidencia de que esto sea una estrategia deliberada y orquestada por parte de Anthropic, pero el resultado práctico para los desarrolladores es el mismo: menos por más dinero. La barra libre de la IA para programar, tal y como la conocimos en 2025, ha llegado a su fin.

Compartir:XFacebookWhatsAppEmail

Redactado por inteligencia artificial · Revisado por la redacción

También te puede interesar