El 2 de agosto de 2026 marca un antes y un después en la regulación de la inteligencia artificial en Europa. Ese día, el Reglamento (UE) 2024/1689, conocido como EU AI Act, alcanza su aplicación plena para la gran mayoría de obligaciones que aún estaban en fase de transición. A partir de esa fecha, cualquier empresa que desarrolle, distribuya o simplemente utilice sistemas de IA dentro de la Unión Europea deberá cumplir un conjunto de normas sin precedentes a nivel mundial, con sanciones que pueden alcanzar los 35 millones de euros o el 7 % de la facturación global.
La norma no ha llegado por sorpresa. Aprobada en junio de 2024 y en vigor desde el 1 de agosto de ese mismo año, su despliegue ha sido escalonado. En febrero de 2025 ya entraron en aplicación las prohibiciones de prácticas de IA consideradas de riesgo inaceptable —como el scoring social, la manipulación subliminal o la vigilancia biométrica masiva— y la obligación de alfabetización en IA para los empleados de cualquier empresa que use estas herramientas. En agosto de 2025 comenzaron a aplicarse las reglas para los modelos de propósito general (GPAI), como ChatGPT, Claude o Gemini. Lo que llega ahora, en agosto de 2026, es la pieza que faltaba: la regulación completa de los sistemas de alto riesgo y las obligaciones de transparencia del artículo 50.
Etiquetado obligatorio: el fin del contenido invisible
Una de las novedades más visibles para el ciudadano de a pie será el etiquetado de contenido generado por inteligencia artificial. El artículo 50 del EU AI Act establece obligaciones de transparencia que afectan a todos los sistemas de IA generativa, independientemente de su nivel de riesgo. En la práctica, esto significa que los proveedores de herramientas que produzcan texto, imagen, audio o vídeo sintético deberán marcar esos contenidos en un formato legible por máquina, mientras que quienes los desplieguen —las empresas que los usan para crear contenidos— tendrán que asegurar un etiquetado visible para el usuario final.
Los deepfakes reciben una atención especial: cualquier imagen, audio o vídeo que presente a personas, objetos o eventos de forma que parezcan reales deberá llevar una etiqueta clara y perceptible, incluso cuando la persona representada haya dado su consentimiento. La Comisión Europea ha impulsado un Código de Prácticas sobre marcado y etiquetado de contenido generado por IA que propone incluso un icono armonizado a nivel europeo con las siglas "AI" —o "IA" en español— para identificar estos materiales. Se distingue, además, entre contenido totalmente generado por IA y contenido asistido por IA con intervención humana significativa, una diferenciación que tendrá consecuencias legales y comerciales relevantes.
Sistemas de alto riesgo: el grueso de la regulación
El auténtico peso de la norma recae sobre los sistemas de IA clasificados como de alto riesgo, aquellos que toman o asisten decisiones que afectan a derechos fundamentales de las personas. El Anexo III del reglamento detalla las categorías: selección de personal, evaluación crediticia, acceso a servicios esenciales como educación o sanidad, infraestructuras críticas, gestión migratoria y administración de justicia, entre otras.
Para estos sistemas, los proveedores deberán implantar un sistema de gestión de riesgos continuo, garantizar la gobernanza y calidad de los datos de entrenamiento, elaborar documentación técnica exhaustiva, mantener registros de actividad, asegurar la supervisión humana, demostrar precisión y robustez, obtener el marcado CE y registrar el sistema en la base de datos pública europea. Los operadores que simplemente usen estos sistemas —sin desarrollarlos— tampoco se libran: deben seguir las instrucciones del proveedor, asignar personas cualificadas para la supervisión humana, monitorizar el rendimiento y conservar los logs generados durante al menos seis meses.
Conviene señalar que la clasificación depende del uso, no de la tecnología. Un mismo modelo de lenguaje puede ser de riesgo mínimo cuando se usa para redactar borradores internos y convertirse en alto riesgo si se emplea para filtrar candidatos en un proceso de selección.
España, pionera con la AESIA
España se adelantó al calendario europeo al convertirse en el primer Estado miembro en crear su autoridad supervisora. La Agencia Española de Supervisión de Inteligencia Artificial (AESIA), con sede en A Coruña, cuenta con un cuerpo de inspección propio que inició operaciones de supervisión de prácticas prohibidas en febrero de 2025 y asumió potestad sancionadora plena desde agosto de ese año. Apenas unos días atrás, el Gobierno presentó el Laboratorio de Ideas de la AESIA, un órgano asesor compuesto por una treintena de expertos del ámbito académico, empresarial, público y sindical que abordará cuestiones como el impacto de la IA en la imagen de las mujeres, la desinformación vinculada a deepfakes o la protección de la infancia en entornos digitales.
A partir de agosto de 2026, la AESIA tendrá plenas competencias para inspeccionar y sancionar el incumplimiento de todas las obligaciones del reglamento en territorio español, en coordinación con los organismos europeos de gobernanza.
¿Y si tu empresa no está preparada?
La realidad es que una parte significativa del tejido empresarial español aún no ha tomado medidas. Según fuentes del sector de consultoría legal, muchas empresas ni siquiera han clasificado sus sistemas de IA por nivel de riesgo ni han comenzado a documentarlos. La ventana de preparación se cierra rápidamente: quedan menos de cuatro meses para la fecha límite.
Existe, no obstante, un matiz relevante. La Comisión Europea propuso en noviembre de 2025, dentro del paquete Digital Omnibus, aplazar las obligaciones de alto riesgo para los sistemas del Anexo III hasta diciembre de 2027. Sin embargo, esa propuesta aún debe ser aprobada por el Parlamento Europeo y el Consejo, de modo que la fecha oficial sigue siendo el 2 de agosto de 2026 y las empresas deberían trabajar con ese horizonte. Para quienes busquen orientación, la web artificialintelligenceact.eu ofrece herramientas de autodiagnóstico sobre clasificación de riesgo.
El EU AI Act no es solo una cuestión de cumplimiento legal: es una apuesta europea por posicionar la confianza y la transparencia como ventaja competitiva en la carrera global de la inteligencia artificial. Para las empresas que operen en Europa —y especialmente para los 450 millones de ciudadanos del mercado único—, agosto de 2026 no es una fecha más en el calendario regulatorio. Es el momento en que la IA deja de operar en un vacío normativo y empieza a rendir cuentas.