En vivo
Buscar

DeepSeek V4: más eficiente que ChatGPT y con código de élite

La empresa china lanza dos modelos con arquitectura MoE que reducen el cómputo al 27% y rivalizan con GPT-5 en programación.

Por Carlos García·viernes, 24 de abril de 2026Actualizado hace 24 min·5 min lectura·6 vistas
Ilustración: DeepSeek V4: más eficiente que ChatGPT y con código de élite · El Diario Joven

La empresa china DeepSeek ha presentado la familia de modelos DeepSeek-V4, compuesta por dos variantes diseñadas para ser más eficientes al procesar textos largos y ejecutar tareas de programación complejas. La compañía publicó los detalles técnicos en Hugging Face, la plataforma de referencia para compartir modelos de inteligencia artificial de código abierto, donde también ha puesto los pesos descargables a disposición de cualquier desarrollador.

La familia está formada por DeepSeek-V4-Pro y DeepSeek-V4-Flash. El primero cuenta con 1,6 billones de parámetros en total, aunque solo activa 49.000 millones por cada consulta. El segundo trabaja con 284.000 millones de parámetros y activa 13.000 millones en cada inferencia. Ambos utilizan una arquitectura denominada Mixture-of-Experts (MoE), que consiste en dividir el modelo en módulos especializados y activar únicamente los necesarios para cada tarea, en lugar de ejecutar toda la red neuronal cada vez. Esto reduce de forma drástica el consumo de recursos computacionales.

El dato más llamativo que acompaña al lanzamiento tiene que ver precisamente con la eficiencia. Según la documentación técnica publicada por DeepSeek, V4-Pro necesita solo el 27% de las operaciones de cómputo que requería su predecesor, DeepSeek-V3.2, y ocupa apenas el 10% del caché KV, la memoria temporal que los modelos de lenguaje usan para no recalcular información ya procesada. En la práctica, eso significa que puede manejar conversaciones muy largas o documentos extensos sin el disparo de costes que afecta a modelos rivales.

Este avance es posible gracias a un mecanismo híbrido que combina dos técnicas de atención distintas. La primera comprime los bloques de clave-valor y luego aplica atención dispersa, de modo que el modelo solo presta atención a las partes más relevantes del contexto. La segunda lleva esa compresión aún más lejos, reduciendo el caché KV de forma más agresiva para consultas que no requieren toda la profundidad del primer enfoque. La combinación de ambas permite que el sistema escale a contextos muy largos sin el coste cuadrático habitual de los transformers tradicionales.

Rendimiento en benchmarks: puntos fuertes y limitaciones

En las pruebas internas recogidas en el documento técnico, DeepSeek-V4-Pro destaca especialmente en programación competitiva. Su puntuación en Codeforces, la plataforma de referencia en ese campo, lo sitúa en el puesto 23 entre candidatos humanos. Según los propios datos del paper, sería el primer modelo abierto en igualar a GPT-5.4 en esa tarea concreta, lo que supone un salto significativo respecto a generaciones anteriores. En conocimiento general, también supera a sus predecesores por un margen amplio en la prueba SimpleQA-Verified.

Sin embargo, el cuadro no es uniforme. Frente a modelos cerrados como Gemini 3.1-Pro de Google o Claude Opus 4.6 de Anthropic, DeepSeek-V4-Pro todavía queda por detrás en algunas pruebas de razonamiento general. Sí logra adelantar a Gemini-3.1 Pro en tareas de recuperación de información con contextos largos, un área donde la eficiencia de su arquitectura se traduce directamente en ventaja. En tareas de agente, es decir, cuando el modelo debe planificar y ejecutar acciones en entornos complejos, se sitúa al nivel de otros modelos abiertos, pero sin superar a los sistemas propietarios de Google, OpenAI o Anthropic.

La versión Flash, más ligera, ofrece un rendimiento comparable a V4-Pro en razonamiento básico y tareas sencillas de agente, con la ventaja de responder más rápido. Se posiciona como la opción para aplicaciones donde la latencia importa más que la profundidad analítica.

El contexto competitivo en 2025

Cuando DeepSeek irrumpió en el mercado a principios de 2025, sacudió al sector porque demostró que era posible entrenar modelos de alto rendimiento con una fracción de los recursos que usaban las grandes tecnológicas estadounidenses. Aquello provocó caídas en bolsa de empresas como Nvidia y abrió un debate sobre si el gasto masivo en infraestructura de IA estaba justificado. El nuevo lanzamiento vuelve a poner ese argumento sobre la mesa.

Dickie Wong, director ejecutivo de investigación en Usmart Securities, señaló al South China Morning Post que la alta eficiencia del modelo está impulsando la demanda de inferencia a gran velocidad. "Las empresas aún necesitan invertir en GPUs o en chips Ascend de Huawei para ejecutar estos modelos a escala", afirmó, subrayando que la eficiencia no elimina la necesidad de hardware, sino que la redistribuye hacia el lado de la inferencia.

El contexto competitivo también ha cambiado. DeepSeek ya no solo mide fuerzas con OpenAI, Google o Anthropic, sino también con nuevos actores como Kimi K 2.6, desarrollado por Moonshot AI, otra empresa china que ha ganado visibilidad en los últimos meses con propuestas centradas en contextos largos. La carrera en el segmento de modelos abiertos se ha acelerado de forma notable.

Quienes quieran probar DeepSeek-V4 pueden acceder desde la web oficial de la compañía o a través de sus aplicaciones para iOS y Android. Los desarrolladores con infraestructura propia pueden descargar los pesos directamente desde Hugging Face para ejecutarlos en local o en sus propios servidores.

Compartir:XFacebookWhatsAppEmail

Redactado por inteligencia artificial · Revisado por la redacción

También te puede interesar