
Google publicó el 25 de marzo de 2026 un algoritmo de compresión de memoria para inteligencia artificial llamado TurboQuant que reduce hasta seis veces el espacio requerido para ejecutar modelos de lenguaje de gran escala, sin pérdida medible de precisión. En horas, las acciones de los principales fabricantes de chips de memoria —Micron, Samsung, SK Hynix, Western Digital y SanDisk— cayeron entre un 3% y un 6%, mientras el mercado recalibraba cuánta memoria física podría necesitar realmente la industria de la IA. El CEO de Cloudflare, Matthew Prince, lo llamó directamente «el DeepSeek de Google».
Qué es TurboQuant y por qué importa
Para entender el impacto de TurboQuant hay que conocer el cuello de botella que resuelve. Cuando un modelo de lenguaje procesa texto, mantiene una estructura de datos llamada caché clave-valor (KV cache) que almacena los cálculos previos para no tener que repetirlos con cada nuevo token generado. Cuanto más largo el texto procesado, más crece este caché, consumiendo memoria de GPU que podría usarse para atender más usuarios o ejecutar modelos más ambiciosos.
TurboQuant comprime ese caché a solo 3 bits por valor, frente al estándar de 16 bits, reduciendo su huella de memoria al menos seis veces. Según los benchmarks de Google, presentados en el paper que aparecerá en ICLR 2026, esta compresión no produce pérdida medible de precisión en cinco pruebas estándar para modelos de contexto largo, incluyendo LongBench, Needle in a Haystack y ZeroSCROLLS, aplicados sobre modelos Gemma, Mistral y Llama.
El truco técnico que lo hace posible es doble. Una primera etapa llamada PolarQuant convierte los vectores de datos de coordenadas cartesianas a polares, separando magnitudes y ángulos. Como las distribuciones angulares siguen patrones predecibles, el sistema puede saltar el costoso paso de normalización por bloque que penaliza a otros métodos. Una segunda etapa aplica QJL, basado en el transform de Johnson-Lindenstrauss, que reduce el error residual a un solo bit de signo por dimensión. Resultado: compresión máxima, sin constantes de overhead que anulen el beneficio.
La reacción del mercado: pánico, contexto y perspectiva
La caída bursátil fue inmediata. Según CNBC, SK Hynix y Samsung perdieron un 6% y un 5% respectivamente en la bolsa de Seúl. Kioxia cayó cerca de un 6%. En Estados Unidos, Micron y Western Digital registraron descensos similares. El paralelismo con DeepSeek —la startup china que en enero de 2025 derrumbó las acciones de Nvidia al demostrar que se podía entrenar un modelo competitivo con una fracción de los recursos— fue inevitable.
Pero los analistas invitaron a la calma. Ben Barringer, de Quilter Cheviot, resumió el consenso experto: «La innovación de Google TurboQuant añade presión, pero es evolutiva, no revolucionaria. No altera el panorama de demanda a largo plazo de la industria. En un mercado predispuesto a reducir riesgo, incluso un avance incremental puede usarse como excusa para tomar beneficios.»
Ray Wang, analista de memoria en SemiAnalysis, apuntó a la paradoja de la eficiencia: cuando se elimina un cuello de botella, los sistemas se vuelven más capaces, lo que históricamente genera mayor demanda de hardware, no menor. Igual que cuando el almacenamiento se abarató, la gente almacenó más; cuando el ancho de banda aumentó, las aplicaciones lo consumieron.
- Micron: -3% en bolsa estadounidense
- Western Digital: -4,7%
- SanDisk: -5,7%
- SK Hynix: -6% en Seúl
- Samsung: -5% en Seúl
- Kioxia: -6% en Tokio
Impacto directo en la eficiencia de la IA empresarial
Más allá del ruido bursátil, TurboQuant tiene implicaciones concretas para cualquier empresa que use o desarrolle aplicaciones de IA. A 4 bits de precisión, el algoritmo logra hasta 8 veces más velocidad en el cálculo de atención en GPUs NVIDIA H100 comparado con la línea base sin comprimir de 32 bits.
Esto significa que un servidor que hoy puede atender a 1.000 usuarios simultáneos con un modelo de lenguaje podría potencialmente atender a 6.000 con el mismo hardware una vez adoptado TurboQuant. O bien, que la misma empresa podría correr un modelo considerablemente más grande con la misma infraestructura existente.
Google también señala en su blog de investigación una aplicación directa en búsqueda vectorial —la tecnología detrás de búsquedas semánticas, sistemas de recomendación y targeting publicitario— donde TurboQuant supera a los métodos existentes en ratios de recall sin necesitar grandes codebooks ni ajuste específico por dataset.
Qué significa para empresas y emprendedores digitales
El avance de TurboQuant se inscribe en una tendencia más amplia que tiene implicaciones directas para negocios de todos los tamaños que trabajan con IA:
- Los costes de inferencia seguirán bajando. TurboQuant, junto con arquitecturas como Vera Rubin de NVIDIA y los TPUs Ironwood de Google, hace que ejecutar modelos grandes sea cada vez más accesible. Los modelos que hoy son prohibitivos para una PYME podrían ser económicamente viables en 12-18 meses.
- Las ventanas de contexto seguirán creciendo. Al reducir el coste de mantener el KV cache, los modelos pueden procesar documentos, conversaciones o bases de código mucho más largas. Esto abre nuevas posibilidades para automatizar tareas que hoy requieren procesamiento manual por volumen.
- La eficiencia no frena la demanda de chips. Para las empresas que invierten en infraestructura de IA, el mensaje de los analistas es consistente: los avances en eficiencia históricamente generan mayor demanda, no menor. La paradoja de Jevons se aplica a la computación igual que a la energía.
- Google refuerza su ventaja en búsqueda. La aplicación de TurboQuant a búsqueda vectorial directamente beneficia a Google Search, YouTube y su stack publicitario, consolidando la posición de Alphabet en sus negocios core mientras avanza en IA generativa.
TurboQuant no es el DeepSeek de Google, pese al titular. Es algo más específico: una optimización técnica sólida que reduce el coste de inferencia en uno de sus cuellos de botella más costosos. El mercado sobrereaccionó. La tecnología, sin embargo, es real, está publicada y tendrá efectos duraderos en cómo se despliega la IA a escala.
Con información de The Next Web, CNBC, Google Research y SemiAnalysis / Redacción VinzNetwork
y luego