En vivo
Buscar

Claude agota los límites más rápido: qué está pasando

Anthropic reconoce ajustes en los límites de uso tras una avalancha de quejas de suscriptores de todos los planes

Por Carlos García·martes, 14 de abril de 2026·4 min lectura
Ilustración: Claude agota los límites más rápido: qué está pasando · El Diario Joven

Si en las últimas semanas has notado que Claude se queda sin cuota antes de lo habitual, que tus sesiones de trabajo se cortan en mitad de una tarea o que el medidor de uso llega al tope en tiempo récord, no estás solo. Miles de usuarios de todo el mundo han compartido la misma experiencia en foros como Reddit, GitHub y Discord, y la presión acumulada ha obligado a Anthropic a dar explicaciones públicas sobre qué está ocurriendo con su plataforma.

La situación afecta a suscriptores de todos los niveles: desde el plan gratuito hasta los planes Max de 100 y 200 dólares al mes. Los testimonios que circulan en los foros son bastante concretos. Hay usuarios que antes podían trabajar ocho horas seguidas con Claude Code y ahora agotan su cuota en menos de dos. Otros aseguran que un solo prompt les consume el diez por ciento de su límite diario, cuando hace unas semanas apenas suponía el uno por ciento. El problema no es una percepción subjetiva: tiene causas reales y múltiples que coincidieron en el tiempo.

Por qué los límites se agotan antes

Uno de los detonantes más inmediatos fue el final de una promoción temporal que Anthropic había activado durante el mes de marzo de 2026. Durante ese período, la compañía duplicó los límites de uso fuera de una ventana de seis horas de máxima demanda. Cuando esa promoción terminó el 28 de marzo, muchos usuarios interpretaron el retorno a los límites habituales como un recorte, cuando en realidad era la vuelta a las condiciones ordinarias del servicio.

Además de ese factor, Anthropic ha reconocido que está ajustando los límites de sesión de cinco horas durante los periodos de mayor tráfico en días laborables. Según la compañía, el límite semanal total no varía, pero en las horas pico el consumo de sesión se acelera de forma perceptible. Es decir, el mismo trabajo cuesta más tokens a las diez de la mañana de un lunes que a las dos de la madrugada de un domingo.

A esto se añade un problema técnico que ha pasado más desapercibido. Según reportes de usuarios técnicos en GitHub, se han identificado al menos dos bugs en Claude Code que rompen el sistema de caché de prompts. Estos errores obligan al modelo a reprocesar cada prompt desde cero en lugar de reutilizar el contexto ya calculado, lo que puede inflar el consumo entre diez y veinte veces sin que el usuario reciba ningún aviso. Anthropic está al tanto de estos fallos, aunque a la fecha de publicación de este artículo no hay un parche confirmado con fecha concreta.

El problema de fondo: más demanda que capacidad

Detrás de todos estos factores hay una realidad estructural que afecta a buena parte de la industria de la inteligencia artificial: Anthropic tiene más demanda de la que su infraestructura de GPUs puede absorber en este momento. La llegada masiva de nuevos usuarios atraídos por la calidad de los modelos Claude 3 y Claude 3.5 no ha venido acompañada de un crecimiento equivalente en capacidad de cómputo, y eso se traduce en restricciones de uso más estrictas durante las horas de mayor tráfico.

También hay un factor de comportamiento que muchos usuarios desconocen. En conversaciones largas, cada nuevo mensaje obliga al modelo a reprocesar todo el historial de contexto acumulado. El mensaje número cincuenta de una misma conversación puede costar bastante más tokens que el primero, simplemente porque el contexto que debe procesar es mucho mayor. El uso de herramientas adicionales como búsqueda web en tiempo real, ejecución de código o conectores con servicios externos también multiplica el consumo de tokens de forma silenciosa, sin que quede reflejado de manera clara en la interfaz.

Qué puedes hacer para estirar tu cuota

Anthropoc no ha anunciado por el momento una ampliación de límites generalizada, así que la estrategia más eficaz pasa por ajustar el propio comportamiento como usuario. El cambio con mayor impacto es elegir bien el modelo: usar Claude Sonnet en lugar de Opus para la mayoría de las tareas puede marcar una diferencia enorme, dado que Opus puede consumir hasta cinco veces más tokens para producir un resultado comparable. Esta elección debe hacerse antes de empezar una conversación, porque una vez que el historial crece no es posible migrar a un modelo más ligero sin perder el contexto.

Iniciar conversaciones nuevas cada quince o veinte mensajes, en lugar de mantener un único hilo interminable, también reduce el coste por mensaje. Si necesitas conservar el contexto de lo discutido, una buena práctica es pedir a Claude un resumen compacto al final de la sesión, copiarlo y pegarlo al inicio de la siguiente. Para quienes trabajan habitualmente con los mismos documentos, la función de Proyectos de Claude permite subir archivos una sola vez y reutilizarlos en múltiples conversaciones sin pagar el coste de tokens en cada sesión.

El horario también importa. Mover las tareas más intensivas a horas fuera del pico de tráfico, que según Anthropic se concentra entre las 5 a.m. y las 11 a.m. hora del Pacífico en días laborables (de 14:00 a 20:00 en España), ayuda a aprovechar mejor el límite semanal disponible. Por último, los usuarios de Chrome y navegadores basados en Chromium pueden instalar la extensión ClaudeKarma, que monitoriza el consumo de cada consulta y avisa cuando los créditos están próximos a agotarse. No soluciona los problemas de Anthropic, pero al menos permite gestionar el límite con más información antes de llegar al corte.

En cualquier caso, el episodio deja claro que el modelo de suscripción de tarifa plana en servicios de IA de uso intensivo sigue siendo un reto para las compañías del sector. La tensión entre las expectativas de los usuarios, que asumen acceso ilimitado, y la realidad de una infraestructura con capacidad finita, es un problema que Anthropic comparte con OpenAI, Google y el resto de proveedores de modelos de lenguaje. La diferencia está en cómo se gestiona la comunicación cuando esa tensión se hace visible.

Compartir:XFacebookWhatsAppEmail

Redactado por inteligencia artificial · Revisado por la redacción

También te puede interesar