La inteligencia artificial lleva años prometiendo transformar la economía, pero con el lanzamiento de Claude Mythos, el modelo más avanzado de Anthropic, esa promesa se vuelve más tangible y, al mismo tiempo, más inquietante. La empresa afirma que este sistema es capaz de identificar vulnerabilidades en infraestructuras de ciberseguridad a una velocidad que supera a la mayoría de los especialistas humanos. Tanto si ese nivel de rendimiento es real como si está algo exagerado, el modelo señala una dirección clara: la IA ya programa bien, y cada vez lo hará mejor. Lo que sirve para escribir código sirve también para encontrar sus grietas.
El núcleo del debate no es técnico, sino económico y social. Si un profesional equipado con agentes de IA puede generar el mismo output que varios cientos de sus colegas, los modelos productivos actuales quedan obsoletos de raíz. Esto podría traducirse en ganancias de productividad históricas, pero también en un desempleo estructural que afectaría especialmente a perfiles técnicos y cualificados, precisamente los que hasta ahora se consideraban más resistentes a la automatización. La paradoja es que la IA no democratiza solo el talento: también democratiza la capacidad de hacer daño.
La ciberseguridad, el frente más expuesto
Antes del lanzamiento de Mythos, las herramientas de inteligencia artificial ya facilitaban a empresas y estados la realización de ciberataques sofisticados. Lo novedoso ahora es que esa capacidad se extiende hacia abajo en la pirámide: delincuentes con recursos limitados y actores solitarios pueden acceder a tecnología que antes solo estaba al alcance de organizaciones con grandes presupuestos. La IA reduce la brecha entre expertos y aficionados de la misma manera que lo hace en otros campos, pero con consecuencias potencialmente mucho más graves cuando el campo en cuestión es la seguridad digital.
El paralelismo con la bomba atómica es tentador pero impreciso. Las armas nucleares requieren materiales y conocimientos tan específicos que su proliferación ha sido, históricamente, contenible. La IA no tiene ese freno natural: el acceso a modelos potentes es cada vez más sencillo y barato, y la tecnología que hoy es experimental mañana puede estar disponible online con la misma facilidad con que se accede a cualquier otro servicio. Eso convierte la amenaza en algo cualitativamente diferente: más distribuida, más difícil de rastrear y más difícil de regular.
Lo que está en juego no se limita a los datos personales o financieros. En el mundo actual, la mayor parte de la infraestructura crítica —redes eléctricas, sistemas de distribución de agua, logística hospitalaria— tiene un componente digital. Un ataque exitoso sobre cualquiera de estos nodos puede tener consecuencias físicas inmediatas. La pregunta no es si esto ocurrirá, sino cuándo y con qué escala.
El coste que nadie quiere pagar
Frente a este escenario, las opciones disponibles son pocas y ninguna es cómoda. La primera es invertir de forma sostenida y creciente en ciberseguridad: más personal especializado, más infraestructura redundante, más sistemas analógicos como respaldo frente a ataques informáticos. La segunda es asumir interacciones más lentas e inconvenientes con administraciones y empresas, sacrificando eficiencia a cambio de menor exposición al riesgo digital. En la práctica, lo más probable es una combinación de ambas, con el coste final recayendo sobre contribuyentes y consumidores.
El problema es político tanto como técnico. Nadie discute el valor de que un sistema crítico siga operando tras un ciberataque, pero tampoco nadie quiere ver reflejado ese seguro en su factura o en sus impuestos. Los gobiernos ya enfrentan presiones presupuestarias por el incremento del gasto en defensa convencional y por el envejecimiento de sus poblaciones. Añadir una tercera partida estructural de ciberseguridad es un mensaje políticamente costoso que pocos líderes querrán asumir de forma explícita.
Esta tensión entre beneficio colectivo y coste individual define gran parte del debate en torno a la IA. Los avances son reales: mayor velocidad de diagnóstico médico, optimización de cadenas de suministro, automatización de tareas repetitivas. Pero estos beneficios son difusos y tardan en percibirse, mientras que la pérdida de empleo o el coste de una brecha de seguridad son inmediatos y concretos. Esa asimetría de percepción es la que más amenaza la aceptación social de la tecnología.
Un futuro que ya no suena a ciencia ficción
El escenario que durante décadas describió la literatura cyberpunk —ordenadores más inteligentes que los humanos coexistiendo con infraestructuras físicas anticuadas— empieza a parecerse a una hoja de ruta más que a una distopía literaria. Para las propias compañías de IA, este contexto supone un riesgo reputacional y regulatorio creciente. La tecnología ya genera rechazo por su impacto sobre el empleo; si a eso se suma la percepción de que facilita ciberataques masivos, la reacción política podría ser desproporcionada y mal orientada, penalizando la innovación sin resolver los problemas de fondo.
El debate sobre cómo regular la inteligencia artificial está abierto en Europa y en el resto del mundo. Lo que Mythos pone sobre la mesa no es una solución, sino una aceleración del problema: la inteligencia ya tiene precio de mercado, y ese precio baja cada trimestre. Adaptarse a eso, sin que la factura la paguen solo los más vulnerables, es el verdadero reto de los próximos años.