El fiscal general de Florida, James Uthmeier, anunció este martes en Tampa el inicio de una investigación criminal contra OpenAI, la empresa creadora de ChatGPT, en relación con el tiroteo ocurrido en abril de 2024 en la Universidad Estatal de Florida (FSU), en Tallahassee. En ese ataque, un estudiante de 20 años llamado Phenix Ikner abrió fuego cerca del sindicato estudiantil del campus, causando la muerte de dos personas e hiriendo a otras seis.
Según Uthmeier, las conversaciones que el sospechoso mantuvo con ChatGPT antes del ataque revelan que el sistema de inteligencia artificial le facilitó información clave para planificarlo: qué tipo de arma y qué munición emplear, si convenía atacar a corta distancia, en qué franja horaria el lugar estaría más concurrido y en qué zonas del campus se concentraría más gente. "Si hubiera sido una persona al otro lado de la pantalla, la acusaríamos de asesinato", declaró el fiscal. "ChatGPT no es una persona, pero eso no nos exime de investigar si existe responsabilidad penal corporativa", añadió.
Ikner enfrenta actualmente varios cargos de asesinato ante la justicia de Florida. La investigación criminal contra OpenAI sería la primera de este tipo en Estados Unidos contra una empresa de inteligencia artificial por su posible implicación en un acto violento.
La respuesta de OpenAI
Desde OpenAI trasladaron su versión a este medio: afirman que, tras tener conocimiento del incidente, identificaron de forma proactiva una cuenta de ChatGPT presuntamente vinculada al sospechoso y la pusieron a disposición de las autoridades. La compañía sostiene que el chatbot "proporcionó respuestas factuales a preguntas con información que puede encontrarse en fuentes públicas de internet" y que en ningún momento "alentó ni promovió ninguna actividad ilegal o dañina".
OpenAI también destacó que ChatGPT es utilizado por cientos de millones de personas al día con fines legítimos, y que la empresa trabaja de forma continua para reforzar sus sistemas de detección de intenciones dañinas. En su declaración, calificaron el tiroteo de "tragedia" pero rechazaron cualquier responsabilidad del sistema.
El caso plantea una pregunta sin precedentes en el ámbito legal: ¿puede una herramienta de inteligencia artificial, y por extensión la empresa que la desarrolla, ser considerada penalmente responsable de los actos cometidos por sus usuarios? Los sistemas actuales de responsabilidad corporativa no contemplan de forma explícita este escenario, lo que convierte a esta investigación en un territorio jurídico sin cartografiar.
Florida y la regulación de la IA
El anuncio llega en pleno debate regulatorio en Florida. El fiscal Uthmeier recordó que el estado ya ha presentado cargos en casos relacionados con material de abuso sexual infantil generado mediante inteligencia artificial, y que la legislatura estatal aprobó el mes pasado una ley que endurece significativamente las penas por ese tipo de delitos.
Además, el gobernador Ron DeSantis incluyó en una sesión especial programada para finales de mes un proyecto de ley conocido como "Carta de Derechos de la Inteligencia Artificial", registrado como SB 482 en el Senado de Florida, que fue aprobado con 35 votos a favor y solo dos en contra. El texto contempla protección de datos, mecanismos legales frente a abusos y salvaguardas específicas para colectivos vulnerables, como menores, personas mayores o individuos con dificultades cognitivas. Sin embargo, el proyecto no logró avanzar en la Cámara de Representantes.
Este impulso regulatorio estatal se enmarca en un fenómeno más amplio: ante la ausencia de una legislación federal integral sobre inteligencia artificial, los estados de EE.UU. han impulsado más de 1.500 iniciativas normativas en lo que va de 2026. California, Texas, Colorado, Utah, Illinois, Washington, Oregón e Idaho, entre otros, han adoptado medidas que abarcan desde la transparencia algorítmica hasta la regulación de entrevistas de trabajo automatizadas.
Frente a este mosaico de regulaciones estatales, la Administración de Donald Trump ha advertido que la fragmentación normativa podría frenar la innovación tecnológica. El mes pasado, la Casa Blanca presentó un Marco Legislativo Nacional de Inteligencia Artificial que aspira a establecer una hoja de ruta federal unificada, aunque su alcance y su capacidad para desplazar las legislaciones estatales ya aprobadas siguen siendo objeto de debate político y jurídico.
El caso de Florida sitúa a OpenAI en el centro de una tormenta que va mucho más allá del plano empresarial: obliga a juristas, legisladores y a la propia industria tecnológica a responder cuánta responsabilidad recae sobre las plataformas de IA cuando sus respuestas, aunque basadas en información pública, contribuyen a actos con consecuencias devastadoras.