
Google lanzó el 2 de abril de 2026 Gemma 4, su familia de modelos de inteligencia artificial de código abierto más avanzada hasta la fecha, bajo una licencia Apache 2.0 por primera vez en la historia de la serie. Este cambio radical elimina las restricciones comerciales que frenaban a desarrolladores y empresas, marcando un antes y un después en el ecosistema de la IA abierta.
¿Qué es Gemma 4 y por qué es histórico?
Gemma 4 es la cuarta generación de modelos de lenguaje de código abierto de Google DeepMind, construida sobre la misma tecnología de base que Gemini 3, el modelo propietario más avanzado de Google. Lo que hace histórica esta versión no son solo sus capacidades técnicas, sino el cambio de licencia: al adoptar Apache 2.0, Google abandona su antigua licencia personalizada —que muchos desarrolladores consideraban demasiado restrictiva— y abre la puerta al uso comercial libre, la modificación y la redistribución sin restricciones.
Clément Delangue, cofundador de Hugging Face, lo calificó como «un hito enorme». Demis Hassabis, CEO de Google DeepMind, afirmó que son «los mejores modelos abiertos del mundo para sus respectivos tamaños».
Desde el lanzamiento de la primera generación, Gemma ha acumulado más de 400 millones de descargas y una comunidad de más de 100.000 variantes. Gemma 4 viene a consolidar ese ecosistema con capacidades sin precedentes.
Cuatro modelos para cada necesidad
La familia Gemma 4 se lanza en cuatro tamaños optimizados para diferentes hardware y casos de uso:
- Gemma 4 31B Dense: El modelo más potente de la familia. Ocupa el #3 en el ranking mundial de modelos abiertos de Arena AI para texto. Diseñado para razonamiento avanzado y fine-tuning en GPU de 80GB como la NVIDIA H100.
- Gemma 4 26B MoE (Mixture of Experts): Ocupa el #6 del mismo ranking. Activa solo 3.8B de sus 26B parámetros durante la inferencia, logrando velocidades excepcionales con bajo consumo. Ideal para flujos de trabajo ágiles y codificación local.
- Gemma 4 E4B (Effective 4B): Modelo de borde con ventana de contexto de 128K tokens, soporte multimodal completo (texto, imagen, vídeo, audio) y latencia casi nula en dispositivos móviles y de IoT.
- Gemma 4 E2B (Effective 2B): El modelo más compacto, diseñado para correr en menos de 1.5GB de RAM en dispositivos como Raspberry Pi, teléfonos inteligentes y módulos NVIDIA Jetson Nano.
Capacidades que cambian el juego para empresas
Más allá del tamaño, Gemma 4 introduce mejoras que interesan directamente a empresas y desarrolladores:
- Flujos agénticos nativos: Soporte integrado para function-calling, salida JSON estructurada e instrucciones de sistema para construir agentes autónomos que interactúan con APIs y ejecutan workflows complejos sin intervención humana.
- Generación de código de alta calidad offline: Permite convertir cualquier workstation en un asistente de código local, rivalizando con servicios cloud como GitHub Copilot o Gemini Pro en entornos sin conexión.
- Visión y audio nativos: Todos los modelos procesan imágenes y vídeo; los modelos edge también manejan audio, lo que abre puertas para aplicaciones de OCR, análisis de gráficos, transcripción y comprensión visual.
- Ventana de contexto ampliada: 128K tokens para los modelos edge y hasta 256K tokens para los modelos grandes, permitiendo procesar repositorios enteros o documentos extensos en un solo prompt.
- 140+ idiomas: Entrenado nativamente en más de 140 lenguas, ideal para empresas con audiencias globales o latinoamericanas.
La licencia Apache 2.0: el cambio más importante
La adopción de Apache 2.0 no es un detalle menor. Las versiones anteriores de Gemma incluían una licencia personalizada que prohibía ciertos usos, permitía a Google modificar los términos unilateralmente y generaba ambigüedad legal sobre el uso de datos sintéticos generados por los modelos.
Apache 2.0 elimina todo eso. Los desarrolladores tienen ahora control total sobre sus datos, infraestructura y modelos. Pueden desplegar en la nube o on-premises, construir productos comerciales, redistribuir derivados y usar Gemma sin temor a cambios futuros en los términos de uso. Para empresas que necesitan soberanía digital, este cambio es determinante.
Disponibilidad y ecosistema
Gemma 4 está disponible desde ya en Hugging Face, Kaggle, Ollama, Google AI Studio y AI Edge Gallery. NVIDIA ya está optimizando los modelos para RTX AI local, y Ollama integró las cuatro variantes desde el primer día. El modelo 26B MoE puede ejecutarse con un solo comando via llama.cpp.
Los modelos E2B y E4B son también la base de Gemini Nano 4, que llegará a dispositivos Android más adelante en 2026, consolidando la estrategia de Google de llevar IA avanzada directamente a los smartphones.
¿Qué significa esto para tu negocio?
Para emprendedores y empresas digitales, Gemma 4 representa una oportunidad concreta: acceso a modelos de IA de clase frontier sin pagar licencias de uso, sin dependencia de APIs externas y con la posibilidad de correr todo en infraestructura propia. Desde chatbots multilingües hasta agentes de automatización o asistentes de código, las posibilidades son amplias y el coste de entrada, por primera vez, es cero.
La competencia en el espacio de la IA abierta es feroz —Meta lidera con Llama, Alibaba acaba de lanzar Qwen 3.6-Plus con 1M de tokens de contexto, y Microsoft presentó sus propios modelos MAI esta misma semana—, pero Google apostó fuerte: el mejor modelo por parámetro, en tu hardware, gratis y sin restricciones.
Con información de Google DeepMind Blog y Ars Technica / Redacción VinzNetwork
y luego