En vivo

La IA necesita humanistas, no solo ingenieros

Cristina Aranda, consultora tecnológica y fundadora de MujeresTech, alerta sobre los sesgos y la falta de diversidad en el desarrollo de la inteligencia artificial

Por Redacción El Diario Joven·domingo, 12 de abril de 2026·4 min lectura
Imagen de la fuente original

El desarrollo de la inteligencia artificial arrastra desde sus orígenes un problema de base: quienes la concibieron pensaron en máquinas, no en personas. Esa es la tesis central de Cristina Aranda, consultora tecnológica especializada en IA y fundadora de MujeresTech, que lleva años reclamando la incorporación de perfiles humanísticos al diseño de estos sistemas para hacerlos más éticos, más justos y menos sesgados.

Aranda recuerda que la conferencia de Dartmouth de 1956, considerada el acto fundacional de la inteligencia artificial, estuvo dominada por matemáticos varones, blancos y sin ninguna representación de diversidad social o disciplinar. Aquellos pioneros igualaron la IA a la inteligencia humana, pero lo hicieron desde una perspectiva reduccionista. "Las personas somos multidimensionales", sostiene la consultora, que subraya que los seres humanos tienen un componente espiritual, emocional y social imposible de reducir a patrones binarios. Esa carencia de partida, según su análisis, sigue marcando los productos que hoy usan millones de personas.

Humanidades en el corazón del algoritmo

Para corregir ese rumbo, Aranda defiende que el sector necesita sociólogos, psicólogos, filósofos, lingüistas, periodistas, juristas y diseñadores trabajando codo a codo con los ingenieros. El argumento no es abstracto: aproximadamente el 80 % de los datos que procesa la inteligencia artificial son datos no estructurados de naturaleza lingüística, lo que convierte a los expertos en lenguaje en piezas clave. Los periodistas, por su parte, resultan imprescindibles en un momento histórico en el que distinguir información veraz de desinformación se ha vuelto especialmente difícil. Y los profesionales del Derecho deben garantizar que la regulación proteja realmente a la ciudadanía.

Esa diversidad cognitiva no es un capricho teórico, sino uno de los principios éticos que la consultora considera irrenunciables. Junto a la cooperación, enumera otros cuatro: beneficencia (generar datos de calidad y no difundir información falsa), sostenibilidad (el entrenamiento de siete días de ChatGPT equivale al consumo energético anual de tres familias españolas, según los cálculos que maneja), no maleficencia (no atentar contra el bien común) y transparencia (obligar a las empresas a explicar cómo funcionan sus algoritmos).

Pollos sin cabeza y una granja sin orden

Aranda utiliza una metáfora directa para describir el panorama actual: plataformas como ChatGPT o Gemini se han lanzado al mercado "como pollos sin cabeza" y lo que hace falta es "ordenar la granja". En el caso de los grandes modelos de lenguaje, la consultora advierte de que no siempre se conoce quién entrena esos sistemas ni cuál es la calidad de los datos que utilizan. Cuando estas herramientas citan fuentes, con frecuencia "alucinan" e inventan referencias que no existen.

A nivel empresarial, el problema adquiere otra dimensión. Muchas organizaciones han detectado que sus empleados recurren a estas plataformas con información confidencial para acelerar tareas, lo que supone, en la práctica, regalar datos sensibles a la competencia. Y en el ámbito educativo, el uso indiscriminado de IA generativa está provocando lo que Aranda califica como "deficiencia cognitiva": los estudiantes delegan cada vez más en la máquina y desarrollan menos sus capacidades de razonamiento. Como referencia, señala el caso de Países Bajos, donde la prohibición de móviles en las aulas ha mejorado las capacidades cognitivas de los estudiantes en solo dos años.

Regulación: la única salida viable

La solución, para la fundadora de MujeresTech, pasa necesariamente por la regulación. Europa cuenta con el AI Act, el primer reglamento del mundo específicamente dedicado a la inteligencia artificial, aunque Aranda considera que su aplicación está siendo demasiado laxa. En Estados Unidos, la situación es aún más precaria desde el punto de vista normativo, si bien la reciente sentencia judicial que señala a Google y Meta como responsables de la adicción a redes sociales en menores abre una vía jurídica relevante. La consultora compara ese momento con lo que vivió en su día la industria tabacalera: un punto de inflexión tras el cual se multiplicaron las reclamaciones.

Frente al argumento habitual del sector tecnológico de que regular frena la innovación, Aranda responde con contundencia: el lobby tecnológico es el más poderoso del mundo y su discurso busca evitar controles. La autorregulación, añade, no funciona en un ecosistema tan complejo. La IA no es solo software; implica hardware, datos, estrategia empresarial y estrategia política. Y las decisiones, recuerda, las toman personas, no máquinas.

En España, la Secretaría de Estado de Digitalización e Inteligencia Artificial trabaja en la auditoría y la incorporación de principios éticos, con guías específicas para pymes y empresas. A escala internacional, organizaciones como el Open Data Institute, fundado por Tim Berners-Lee, también impulsan iniciativas en esta dirección. Pero el camino es largo. Aranda recuerda el caso de Timnit Gebru, la antigua líder de ética de Google, que fue invitada a abandonar la compañía tras publicar un artículo que alertaba sobre los peligros de la IA generativa sin controles adecuados.

El mensaje de fondo es claro: mientras la industria tecnológica siga priorizando la velocidad de lanzamiento sobre la responsabilidad, y mientras los equipos de desarrollo carezcan de la diversidad disciplinar necesaria, la inteligencia artificial seguirá replicando los sesgos de quienes la diseñan. Le falta, en palabras de Aranda, "calle" y le sobran demasiados ángulos muertos.

Compartir:XFacebookWhatsAppEmail

Redactado por inteligencia artificial · Revisado por la redacción

También te puede interesar