La inteligencia artificial ya no vive solo en los servidores de las grandes tecnológicas. Google ha dado un paso concreto en esa dirección con Google AI Edge Gallery, una aplicación experimental y gratuita que permite instalar y ejecutar modelos de lenguaje de gran escala directamente en el teléfono móvil, sin necesidad de conexión a servidores externos. El modelo estrella que ofrece es Gemma 4, la apuesta de la compañía en el terreno de los modelos de IA abiertos.
La distinción entre Gemini y Gemma es clave para entender de qué hablamos. Gemini, el asistente y modelo de referencia de Google, funciona en la infraestructura de la empresa: cada consulta viaja hasta sus servidores, se procesa allí y regresa al usuario. Gemma, en cambio, es un modelo de código abierto que puede ejecutarse en local, es decir, en el propio dispositivo del usuario, sin que ningún dato salga del teléfono a menos que el usuario lo decida explícitamente. Esta diferencia no es menor en un contexto donde la privacidad de los datos y la dependencia de terceros generan cada vez más debate.
El ecosistema de modelos de IA abiertos ha crecido de forma notable en los últimos dos años. Junto a Gemma conviven propuestas como LLaMA de Meta, Mistral de la startup francesa Mistral AI, o Qwen, desarrollado por Alibaba. Todos comparten una característica común: el usuario puede descargarlos, instalarlos en su propio hardware y, en muchos casos, adaptarlos a sus necesidades sin depender del proveedor original. En el entorno de escritorio, herramientas como Ollama o LM Studio han democratizado ese acceso. En el móvil, Google AI Edge Gallery aspira a hacer lo mismo.
Qué es Google AI Edge Gallery y cómo se instala
La aplicación se publicó por primera vez el 26 de febrero de 2025, inicialmente solo para iPhone, aunque poco después llegó también a Android. Es compatible con iOS 17 o superior y con Android 12 en adelante, lo que la hace accesible para una gran mayoría de teléfonos en circulación. Está disponible en Google Play y en la App Store de forma gratuita, y su código fuente puede consultarse en el repositorio oficial de GitHub de Google AI Edge.
Una vez instalada, el proceso para descargar Gemma 4 es directo. Desde el menú lateral se accede a la sección de modelos, donde aparecen las distintas opciones disponibles. En la versión actual, Google ofrece dos variantes del modelo: Gemma 4 E2B, con 2.000 millones de parámetros y un peso de 2,5 GB, y Gemma 4 E4B, con 4.000 millones de parámetros y 3,6 GB de almacenamiento. La primera está diseñada para dispositivos más modestos y prioriza la velocidad y el bajo consumo de recursos. La segunda ofrece respuestas más elaboradas y un razonamiento más consistente, pero exige un hardware más capaz. La propia app advierte al usuario si su dispositivo puede tener dificultades para ejecutar el modelo seleccionado.
Además de Gemma 4, la aplicación permite instalar otros modelos de terceros disponibles en la plataforma, como DeepSeek o Qwen. Y mediante el botón de añadir modelos, es posible cargar cualquier modelo descargado previamente desde repositorios como Hugging Face, la mayor plataforma de distribución de modelos de IA abiertos.
Qué se puede hacer con Gemma 4 en el móvil
Las funciones disponibles en Google AI Edge Gallery van más allá del clásico chatbot. La más básica, AI Chat, permite conversar con el modelo mediante preguntas y respuestas en texto, e incluye un modo de razonamiento visible que muestra al usuario cómo el modelo llega a cada conclusión. Es útil tanto para tareas cotidianas como para entender el funcionamiento interno de los modelos LLM.
Agent Skills es la función más reciente y probablemente la más ambiciosa: convierte al modelo en un asistente proactivo capaz de usar herramientas externas, incluyendo búsquedas en internet, para generar resúmenes, mapas interactivos u otro tipo de contenido enriquecido. Ask Image permite identificar objetos, personas o elementos dentro de una fotografía sin necesidad de subirla a ningún servidor. Audio Scribe se encarga de transcribir y traducir audios directamente en el dispositivo. Prompt Lab ofrece un entorno de pruebas para ajustar parámetros del modelo como la temperatura, que regula el equilibrio entre creatividad y precisión en las respuestas. Y Mobile Actions promete automatizar tareas en el propio teléfono usando una versión adaptada de Gemma.
Hay incluso un minijuego llamado Tiny Garden, en el que el usuario puede construir un jardín virtual mediante lenguaje natural, una forma ligera de explorar las capacidades del modelo sin necesidad de conocimientos técnicos previos.
IA en local: privacidad y control como argumento principal
Más allá de las funciones concretas, el valor diferencial de esta propuesta está en el enfoque. Ejecutar un modelo de IA en local implica que los textos que el usuario introduce, las imágenes que analiza o los audios que transcribe no abandonan el dispositivo en ningún momento. Eso elimina la exposición de datos sensibles a servidores de terceros, un argumento relevante tanto para usuarios individuales preocupados por su privacidad como para profesionales que manejan información confidencial.
Esta tendencia hacia la IA en local no es exclusiva de Google. Empresas como Apple han apostado por modelos que se ejecutan en el chip del dispositivo, y fabricantes de hardware como Qualcomm o MediaTek llevan años optimizando sus procesadores para tareas de inferencia de IA. Google AI Edge Gallery se suma a esa corriente con una propuesta accesible, experimental y gratuita que, aunque todavía en desarrollo, ofrece una puerta de entrada real a la IA local para cualquier usuario con un smartphone moderno.