
Google ha firmado un acuerdo multimillonario con Thinking Machines Lab, la startup fundada por Mira Murati —ex directora de tecnología de OpenAI— para proveer infraestructura cloud basada en los nuevos chips NVIDIA GB300, los más rápidos de la generación actual. El deal, valorado en miles de millones de dólares en un rango de un solo dígito, convierte a Thinking Machines en uno de los primeros clientes de Google Cloud en acceder a estos procesadores, que duplican la velocidad de entrenamiento e inferencia respecto a la generación anterior. El acuerdo es no exclusivo —Thinking Machines puede seguir usando otros proveedores cloud— pero confirma a Google como el socio de infraestructura de referencia para uno de los laboratorios de IA frontier que más expectativa generan en el sector.
Mira Murati y el nacimiento de Thinking Machines Lab
Mira Murati dejó OpenAI en septiembre de 2024 tras haber sido su directora de tecnología durante años, incluido el periodo de mayor crecimiento de ChatGPT. Fundó Thinking Machines Lab en febrero de 2025 con una tesis clara: construir modelos de IA frontier especializados en reinforcement learning, la técnica de entrenamiento que ha impulsado los avances más significativos en razonamiento de los últimos dos años.
El laboratorio sorprendió al sector con una ronda seed de 2.000 millones de dólares a una valoración de 12.000 millones, una de las mayores de la historia del venture capital para una empresa en etapa temprana. En marzo de 2026, NVIDIA anunció una inversión significativa en la startup —sumando capital y, crucialmente, acceso preferente a chips—. Con el acuerdo con Google Cloud anunciado hoy, Thinking Machines tiene ahora los dos pilares de infraestructura más importantes del mercado trabajando a su favor.
El acuerdo con Google: GB300 y la escala del reinforcement learning
El núcleo del deal es el acceso a los sistemas cloud de Google construidos sobre los chips NVIDIA GB300, que ofrecen el doble de velocidad en tareas de entrenamiento e inferencia respecto a la generación H100. Para un laboratorio cuya arquitectura depende de reinforcement learning —una metodología computacionalmente cara que requiere miles de iteraciones de entrenamiento y feedback— acceder a esta capacidad no es una ventaja marginal: es lo que determina si el laboratorio puede competir con los grandes.
Google señaló explícitamente que su infraestructura puede soportar las cargas de trabajo de reinforcement learning de Tinker, el primer modelo de Thinking Machines. El founding researcher Myle Ott fue directo en su valoración del acuerdo: «Google Cloud got us running at record speed with the reliability we demand.» La velocidad de arranque en clusters de miles de GPUs es uno de los problemas operativos más frecuentes para laboratorios que trabajan con reinforcement learning a gran escala.
Tinker: el primer producto de Thinking Machines
Thinking Machines reveló su primer producto en octubre de 2025 bajo el nombre Tinker. La propuesta de Tinker es automatizar la creación de modelos de IA personalizados: en lugar de que una empresa contrate un equipo de ML para diseñar y entrenar su propio modelo, Tinker gestiona ese proceso de forma autónoma, optimizando la arquitectura y el entrenamiento según los datos y el caso de uso del cliente.
La dependencia de Tinker en reinforcement learning lo distingue de los productos basados en fine-tuning o prompt engineering. El reinforcement learning permite que el modelo aprenda de feedback iterativo —humano o automatizado— en lugar de simplemente ajustarse a un dataset fijo. Esta capacidad es especialmente relevante para aplicaciones donde el comportamiento correcto es difícil de especificar por adelantado pero fácil de evaluar en tiempo real: sistemas de recomendación, agentes de decisión, y optimización de procesos industriales.
La guerra por los laboratorios frontier: Google vs Microsoft vs Amazon
El acuerdo con Thinking Machines es el último capítulo de una competencia directa entre los tres grandes proveedores cloud por hacerse con los laboratorios de IA más prometedores como clientes ancla. La lógica es clara: un laboratorio frontier que entrena modelos a escala consume cientos de millones de dólares en cómputo al año, y la infraestructura que usa condiciona toda la cadena de valor posterior —desde el entrenamiento hasta el despliegue de APIs.
Google ya tenía a Anthropic como cliente estratégico —con un acuerdo que incluye acceso a sus unidades de procesamiento tensorial (TPUs)— y suma ahora a Thinking Machines. Microsoft tiene a OpenAI. Amazon Web Services tiene acuerdos con Mistral y con varios laboratorios de segunda fila. La no-exclusividad del deal con Thinking Machines sugiere que el laboratorio mantiene deliberadamente flexibilidad: puede usar AWS o Azure para cargas específicas mientras construye su infraestructura principal en Google Cloud.
Qué significa para el mercado de IA en 2026
El acuerdo tiene dos lecturas para quienes siguen el sector. La primera es estratégica: Thinking Machines Lab pasa de ser una apuesta de venture capital —aunque con fundadores de primer nivel— a ser un actor con infraestructura computacional comparable a los grandes laboratorios. Con acceso a GB300 a escala, la brecha entre Thinking Machines y competidores como Mistral o Cohere se reduce significativamente.
La segunda lectura es sobre el patrón del mercado: Google está apostando a cubrir todos los laboratorios relevantes con acuerdos cloud, independientemente de si compite directamente con sus propios modelos Gemini. Es una estrategia de plataforma —capturar el gasto en infraestructura— más que una estrategia de producto. Para las empresas que construyen sobre IA, el mensaje es que los modelos de Thinking Machines —cuando estén disponibles comercialmente más allá de Tinker— correrán sobre infraestructura de clase mundial desde el primer día.
El sector espera con atención el lanzamiento de los siguientes productos de Thinking Machines. La combinación de la experiencia de Murati en escalar modelos (dirigió el desarrollo de GPT-4 y los primeros modelos multimodales en OpenAI), el capital disponible y ahora el acceso a infraestructura de primer nivel convierte al laboratorio en una de las pocas startups de IA que puede competir técnicamente con los grandes sin necesitar ser parte de su ecosistema.
Con información de TechCrunch, NewsBytesApp, Axios y CNBC / Redacción VinzNetwork
y luego