Anthropic ha tomado una decisión sin precedentes en la industria de la inteligencia artificial: su nuevo modelo de lenguaje frontera, Claude Mythos Preview, no llegará al público general. La razón es tan clara como inquietante: el modelo es capaz de identificar y explotar vulnerabilidades de seguridad en sistemas operativos, navegadores y software crítico con una autonomía y una precisión que superan a las de los mejores expertos humanos en ciberseguridad. Lo que empezó como un modelo de propósito general se ha convertido, sin que nadie lo planeara, en la herramienta de hacking más poderosa jamás construida.
La noticia se conoció primero por una filtración accidental. A finales de marzo de 2026, <cite index="10-2,10-3">Fortune accedió a un borrador de entrada de blog de Anthropic almacenado sin protección en una caché de datos pública, donde la compañía describía el nuevo modelo como portador de «riesgos de ciberseguridad sin precedentes»</cite>. Días después, <cite index="8-15">Anthropic confirmó los detalles y anunció oficialmente Mythos Preview como base del Proyecto Glasswing</cite>. El nombre hace referencia a una mariposa de alas transparentes: una metáfora de las vulnerabilidades del software, que son «relativamente invisibles» hasta que alguien las encuentra.
Qué puede hacer Mythos que ningún modelo anterior podía
<cite index="4-11,4-12,4-13">En las pruebas previas al lanzamiento, Anthropic descubrió que las capacidades de ciberseguridad de Mythos Preview eran sorprendentemente avanzadas. El modelo no solo identifica vulnerabilidades desconocidas, sino que también las weaponiza: puede encadenar múltiples fallos para penetrar software complejo de forma autónoma</cite>, según Logan Graham, responsable de investigación ofensiva en Anthropic.
<cite index="11-9">En pocas semanas de pruebas, Mythos Preview identificó miles de vulnerabilidades de día cero, muchas de ellas críticas, en todos los grandes sistemas operativos y navegadores web</cite>. Los resultados concretos son impactantes: <cite index="13-15">entre los hallazgos figuran un fallo en OpenBSD que llevaba 27 años sin detectarse, otro en el codificador de vídeo FFmpeg que sobrevivió a cinco millones de pruebas automatizadas, y varias vulnerabilidades en el kernel de Linux que, encadenadas, permitirían tomar el control completo de cualquier máquina</cite>.
Aun más llamativo resulta el dato sobre autonomía real: <cite index="17-18,17-19">ingenieros de Anthropic sin formación formal en seguridad informática le pidieron al modelo que encontrase vulnerabilidades de ejecución remota de código durante la noche, y a la mañana siguiente encontraron un exploit completo y funcional esperándoles</cite>. Según el informe técnico publicado por el equipo de red team de Anthropic, el modelo superó la mayoría de los benchmarks existentes hasta el punto de saturarlos, lo que obligó a diseñar nuevas métricas basadas en tareas reales.
<cite index="7-23,7-24,7-25">La propia Anthropic reconoce que no entrenó a Mythos Preview para tener estas capacidades: emergieron como consecuencia directa de mejoras generales en código, razonamiento y autonomía. Las mismas que lo hacen más eficaz parcheando vulnerabilidades también lo hacen más eficaz explotándolas</cite>.
Project Glasswing: la respuesta defensiva
Ante una situación que la compañía califica de «momento de inflexión», Anthropic ha optado por una estrategia de acceso controlado y uso defensivo. <cite index="4-16,4-17">En lugar de un lanzamiento público, la compañía está dando acceso a Mythos Preview a empresas tecnológicas como Microsoft, Nvidia y Cisco, en el marco de la iniciativa Project Glasswing, dotada con hasta 100 millones de dólares en créditos de uso</cite>.
<cite index="6-9">Entre los once socios principales del proyecto figuran Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, Nvidia y Palo Alto Networks</cite>. El objetivo es que estas organizaciones utilicen el modelo para escanear y reparar sus propios sistemas y los del software de código abierto del que depende buena parte de la infraestructura digital global. Según la página oficial del Proyecto Glasswing, la iniciativa también destina cuatro millones de dólares adicionales directamente a organizaciones de seguridad de código abierto.
<cite index="9-8,9-9">Anthropic ha mantenido conversaciones con organismos del gobierno de Estados Unidos, incluidas la Agencia de Ciberseguridad e Infraestructura (CISA) y el Centro para Estándares e Innovación en IA</cite>, aunque según la publicación Platformer, no está claro que el gobierno esté respondiendo activamente a esas conversaciones.
Un reloj en cuenta atrás: la «vulnpocalipsis»
La mayor preocupación del sector no es Mythos en sí, sino lo que viene después. <cite index="5-4">Logan Graham advierte que, aunque Mythos nunca se hiciese público, espera que los competidores de Anthropic, incluidos los chinos, lancen modelos con capacidades de hackeo comparables en los próximos meses y años</cite>. <cite index="6-18">OpenAI ya está ultimando un modelo similar a Mythos que lanzará solo a un reducido grupo de empresas a través de su programa «Trusted Access for Cyber»</cite>.
Esta perspectiva alimenta lo que los expertos del sector denominan «vulnpocalipsis»: <cite index="5-6">un escenario en el que los hackers aceleran masivamente sus ataques con IA diseñada para identificar agujeros en las defensas, convirtiendo en algo trivial lo que antes requería años de especialización</cite>. <cite index="5-18,5-19">Cynthia Kaiser, exfuncionaria del FBI en ciberseguridad, alerta especialmente sobre los hackers de segunda fila, quienes hasta hace poco carecían de la habilidad técnica para atacar hospitales o infraestructuras críticas, y ahora tienen acceso a herramientas de un poder sin precedente</cite>.
El antecedente más directo ya existe: <cite index="10-17,10-18">grupos vinculados al gobierno chino han intentado explotar Claude en ciberataques reales, y en al menos un caso documentado, una campaña coordinada utilizó Claude Code para infiltrarse en unas 30 organizaciones, entre ellas empresas tecnológicas, entidades financieras y agencias gubernamentales</cite>.
El debate de fondo que plantea Mythos va más allá de la ciberseguridad. <cite index="13-6">Por primera vez, uno de los tres grandes laboratorios de IA frontera ha creado un modelo que considera demasiado peligroso para lanzarlo al público general</cite>. Eso abre una pregunta regulatoria urgente: ¿quién decide qué modelos son demasiado peligrosos, con qué criterios y bajo qué supervisión pública? En un entorno donde, <cite index="13-10,13-11">la premisa de base es que la única manera de protegernos de las IA peligrosas es construirlas primero, y en un contexto de escasa regulación</cite>, la respuesta aún no tiene dueño claro.