En vivo
Buscar

Google: la IA ya escribe el 75% de su código

Sundar Pichai revela el salto más drástico en la automatización del desarrollo software y anuncia nuevos chips TPU de octava generación.

Por Carlos García·miércoles, 22 de abril de 2026·4 min lectura·1 vistas
Ilustración: Google: la IA ya escribe el 75% de su código · El Diario Joven

Tres de cada cuatro líneas de código nuevo que se producen en Google las escribe una máquina. Sundar Pichai, consejero delegado de la compañía, ha confirmado que el 75% del software generado internamente proviene ya de sistemas de inteligencia artificial, y que los ingenieros humanos se limitan a revisar y validar ese trabajo. El dato, compartido en el contexto del congreso Google Cloud Next, no es solo una cifra de marketing: marca una ruptura con la forma en que la industria tecnológica lleva décadas construyendo sus productos.

El salto es vertiginoso si se pone en perspectiva. En octubre de 2024, durante la presentación de resultados del tercer trimestre, Pichai ya había adelantado que más de un cuarto del código nuevo en Google tenía origen en la IA. Apenas unos meses después, en otoño, esa proporción había subido hasta el 50%. Ahora, en la antesala del gran evento de Google Cloud, el porcentaje llega al 75%. La curva de aceleración es difícil de ignorar.

El ingeniero como director de orquesta

Pichai no habla ya de herramientas que asisten a los programadores, sino de un modelo de trabajo radicalmente distinto. En su blog personal, el CEO describe lo que Google llama "flujos de trabajo verdaderamente agénticos": entornos donde los ingenieros ya no escriben código línea a línea, sino que coordinan equipos de agentes autónomos que trabajan en paralelo. El papel del humano se desplaza de la ejecución a la supervisión estratégica.

Un ejemplo concreto que menciona Pichai ilustra bien el cambio: una migración de código de especial complejidad que, con el apoyo de estos agentes, se completó seis veces más rápido que hace un año, cuando los equipos trabajaban sin esa asistencia. En esa misma línea, la aplicación de Gemini para macOS fue desarrollada en su primera versión mediante Antigravity, la plataforma de desarrollo agéntico interna de Google, pasando de concepto a prototipo funcional en cuestión de días.

Esta aceleración en los tiempos de desarrollo tiene implicaciones que van más allá de la productividad. Cambia la estructura de costes, altera los perfiles profesionales que las grandes tecnológicas necesitan contratar y, en última instancia, plantea preguntas serias sobre el futuro del empleo en el sector del software.

Google entra en la batalla de los agentes

El anuncio de Pichai llega en un momento de intensa competencia entre las grandes compañías de IA por liderar el segmento de los agentes inteligentes, sistemas capaces de ejecutar tareas complejas de forma autónoma. Anthropic ha ganado protagonismo en este espacio en los últimos meses, y otros movimientos del sector apuntan a que la disputa se está calentando: SpaceX ha cerrado un acuerdo de compra del editor de código Cursor valorado en 60.000 millones de dólares, una señal de hasta dónde están dispuestos a llegar los grandes actores para controlar las herramientas de desarrollo basadas en IA.

Frente a eso, Google apuesta por un ecosistema propio pero abierto. Thomas Kurian, consejero delegado de Google Cloud, ha explicado que el foco ya no está en si es posible construir un agente, sino en cómo gestionar miles de ellos de forma coordinada dentro de una organización. La respuesta de la compañía es Gemini Enterprise Agent Platform, una infraestructura que permite a las empresas crear agentes, asignarles identidades, controlar sus comunicaciones entre sí y centralizar su gestión. Por encima de esa capa técnica se construye Gemini Enterprise App, una interfaz pensada para que empleados sin conocimientos de programación puedan crear y ejecutar agentes por su cuenta.

Además, Google subraya que su plataforma no es un jardín cerrado: admite agentes desarrollados por terceros, con integraciones ya confirmadas con empresas como Oracle, Salesforce o ServiceNow. La estrategia recuerda a la que siguió Android en el mercado móvil: ofrecer una base común sobre la que otros puedan construir, para convertirse en el estándar de facto.

Nuevos chips TPU para no depender de Nvidia

Paralelo al anuncio sobre los agentes, Google ha presentado la octava generación de sus chips TPU, los procesadores que la compañía diseña específicamente para cargas de trabajo de inteligencia artificial. La novedad esta vez es que lanzará dos variantes distintas: una optimizada para el entrenamiento de modelos, que exige grandes volúmenes de cómputo en paralelo, y otra orientada a la inferencia, es decir, la ejecución de esos modelos una vez entrenados.

Kurian justifica esa bifurcación en la demanda real de los clientes. Según el directivo, las empresas están empezando a desplegar infraestructura de IA de forma más específica y planificada, eligiendo el hardware más adecuado según el tipo de tarea. La decisión encaja además en una tendencia más amplia que están siguiendo todos los grandes proveedores de nube: reducir la dependencia de Nvidia, cuyos chips GPU dominan hoy el mercado de la IA, desarrollando silicio propio que les dé más control sobre costes y disponibilidad.

En conjunto, los anuncios de Google Cloud Next dibujan una compañía que ha decidido apostar con fuerza por convertir la IA agéntica en su principal palanca de crecimiento, tanto en el uso interno como en la oferta a clientes empresariales. El hecho de que ya el 75% de su propio código lo escriba la máquina no es solo un dato curioso: es la demostración más directa de que Google cree en esta tecnología lo suficiente como para aplicarla a sus propias entrañas.

Compartir:XFacebookWhatsAppEmail

Redactado por inteligencia artificial · Revisado por la redacción

También te puede interesar