
Google lanzó el 2 de abril de 2026 Gemma 4, su familia de modelos de inteligencia artificial de código abierto más avanzada hasta la fecha, bajo una licencia Apache 2.0 que elimina todas las barreras para uso comercial y empresarial. La noticia sacudió el ecosistema de IA: por primera vez, los desarrolladores pueden usar, modificar y redistribuir libremente modelos de nivel frontera construidos con la misma tecnología que Gemini 3.
¿Qué es Gemma 4 y por qué importa tanto?
Gemma 4 es una familia de cuatro modelos de IA open source diseñados para razonamiento avanzado, flujos de trabajo agénticos y generación de código. Con más de 400 millones de descargas acumuladas y más de 100,000 variantes creadas por la comunidad, la serie Gemma se ha convertido en el ecosistema open source de IA más dinámico fuera de Meta Llama. El modelo de 31B parámetros ocupa el #3 en el ranking global de modelos abiertos de Arena AI, superando a sistemas con 20 veces más parámetros.
Clement Farabet, VP de Investigación en Google DeepMind, explica el salto cualitativo: «Gemma 4 ofrece un nivel de inteligencia por parámetro sin precedentes. Hemos incorporado las mismas capacidades de razonamiento que impulsan Gemini 3, pero optimizadas para ejecutarse en hardware local desde una Raspberry Pi hasta un GPU de consumidor.»
Los cuatro modelos: desde el móvil hasta el servidor
Google ha estructurado Gemma 4 en cuatro variantes para cubrir diferentes necesidades:
- E2B (Effective 2B): Solo 1.5GB de RAM. Corre en smartphones, Raspberry Pi y dispositivos IoT. Soporta imagen, video y audio de forma nativa.
- E4B (Effective 4B): Versión ampliada para edge computing con capacidades multimodales completas y ventana de contexto de 128K tokens.
- 26B MoE (Mixture of Experts): Primer modelo MoE de la familia Gemma. Activa solo 3.8B parámetros durante la inferencia para máxima velocidad. Rankeado #6 a nivel mundial en modelos abiertos.
- 31B Dense: El modelo estrella. Rankeado #3 global entre modelos open source. Ventana de contexto de 256K tokens. Ideal para fine-tuning empresarial y flujos agénticos complejos.
Apache 2.0: el cambio que los desarrolladores pedían
El aspecto más celebrado del lanzamiento no es técnico, sino legal. Las versiones anteriores de Gemma venían con términos de licencia restrictivos que limitaban el uso comercial y creaban fricciones para empresas. Con Apache 2.0, cualquier organización puede:
- Usar Gemma 4 libremente en productos comerciales
- Hacer fine-tuning y redistribuir modelos derivados
- Desplegar en infraestructura propia sin restricciones
- Integrar en soluciones SaaS sin necesidad de acuerdos especiales
Clément Delangue, cofundador de Hugging Face, lo llamó «un hito enorme para el ecosistema open source de IA». El modelo ya está disponible en Hugging Face, Kaggle, Ollama, Google AI Studio y AI Edge Gallery.
Capacidades técnicas que cambian las reglas
Más allá del tamaño y la licencia, Gemma 4 incorpora capacidades que hasta ahora eran exclusivas de modelos propietarios:
- Soporte nativo para más de 140 idiomas
- Procesamiento de imagen, video y audio en todos los modelos
- Function calling nativo y output JSON estructurado para agentes
- Reconocimiento óptico de caracteres (OCR) y análisis de gráficos
- Compatibilidad con NVIDIA, AMD, Qualcomm, MediaTek y TPUs de Google
NVIDIA ya está optimizando Gemma 4 para RTX AI local, y Ollama incorporó soporte para las cuatro variantes el mismo día del lanzamiento. El modelo 26B MoE puede ejecutarse localmente con un solo comando vía llama.cpp.
Qué significa para empresas y emprendedores
Para los negocios digitales, Gemma 4 abre una ventana de oportunidad significativa. Los modelos edge (E2B y E4B) son la base de Gemini Nano 4, que llegará a dispositivos Android en 2026, lo que significa que los desarrolladores de apps móviles podrán integrar IA avanzada offline sin costos de API. Para startups y PYMES, la licencia Apache 2.0 elimina el riesgo legal de construir productos sobre IA propietaria: ya no hay que negociar acuerdos comerciales con Google para usar estos modelos en producción.
Empresas con necesidades de privacidad de datos — como clínicas médicas, bufetes de abogados o plataformas fintech — pueden ahora desplegar Gemma 4 en sus propios servidores sin enviar datos a servicios externos, algo que era prácticamente imposible con modelos de rendimiento comparable hasta hoy.
Disponibilidad y primeros pasos
Gemma 4 está disponible de forma inmediata en múltiples plataformas. Para empezar a experimentar: Google AI Studio ofrece acceso gratuito a los modelos 31B y 26B MoE; Ollama permite ejecutar cualquier variante localmente con un comando; Hugging Face tiene los pesos completos y versiones cuantizadas. Google también lanzó el Gemma 4 Good Challenge en Kaggle para proyectos de impacto social con los nuevos modelos.
Con Gemma 4, Google no solo lanza modelos: redefine lo que significa «open source» en la industria de la IA y presiona directamente a Meta y Alibaba en la batalla por el ecosistema de desarrolladores a nivel global.
Con información de Google DeepMind Blog / The Neuron / Redacción VinzNetwork
y luego