
Microsoft ha tomado el control de la expansión de un mega data center en Abilene, Texas, después de que OpenAI decidiera pausar su propio crecimiento en la misma ubicación y redirigir su inversión hacia otros estados. La operación, realizada en asociación con Crusoe —empresa especializada en centros de datos de alta eficiencia energética—, incluye la construcción de dos «fábricas de IA» y una planta de energía propia de 900 megavatios. Junto con el campus Stargate de OpenAI y Oracle ya operativo en el lugar, el complejo total de Abilene alcanzará una capacidad combinada de 1,25 gigavatios, convirtiéndose en uno de los mayores centros de computación de IA del planeta.
Por qué OpenAI dejó de expandirse en Texas y qué cambió
El campus Stargate de Abilene fue concebido como la punta de lanza del proyecto Stargate: la iniciativa de infraestructura de IA más ambiciosa de Estados Unidos, con OpenAI y Oracle como protagonistas y Microsoft como socio estratégico. La primera fase, con 350 megavatios de capacidad, está operativa o en construcción avanzada.
Sin embargo, Sachin Katti, responsable de infraestructura de cómputo de OpenAI, confirmó que la compañía ha decidido no continuar su expansión local en Abilene. La estrategia ha cambiado: en lugar de concentrar capacidad en un único megacampus, OpenAI diversifica geográficamente, con nuevas instalaciones planificadas en Wisconsin y otros estados. El objetivo es reducir la dependencia de una sola ubicación y optimizar la distribución de la carga entre entrenamiento de modelos e inferencia a escala.
La salida de OpenAI de la expansión no supuso ningún parón para el terreno: Microsoft entró de inmediato.
La apuesta de Microsoft: 900 MW propios y plena autonomía energética
Lo más llamativo del acuerdo Microsoft-Crusoe no es solo el tamaño, sino la escala de autonomía energética que implica. Mientras el campus Stargate original de 350 MW depende en parte de la red eléctrica regional, Microsoft está construyendo una planta de generación propia de 900 MW para su nuevo clúster.
Esta diferencia es estratégica. Las GPUs de última generación —como las NVIDIA Vera Rubin que comenzarán a desplegarse en 2026— consumen energía de forma extremadamente densa. Un rack moderno de servidores de IA puede consumir 100 kilowatios o más, cien veces la densidad energética de un rack convencional. La independencia de la red regional elimina el riesgo de limitaciones de suministro y permite garantizar la disponibilidad del servicio a nivel de SLA enterprise.
- OpenAI + Oracle (Stargate): 350 MW — Fase 1 operativa/construcción
- Microsoft + Crusoe (nuevo clúster): 900 MW — En desarrollo
- Capacidad combinada del campus: 1,25 GW
- Proyección final del campus: 10 edificios de data center
Qué revela este movimiento sobre la relación Microsoft-OpenAI
Durante años, la infraestructura de OpenAI ha dependido casi exclusivamente de Azure, la plataforma cloud de Microsoft. A cambio de su inversión de 13.000 millones de dólares, Microsoft obtuvo derechos preferentes de acceso a los modelos de OpenAI y exclusividad en la nube. Esa integración fue el pilar del crecimiento de Copilot y de los servicios de IA empresarial de Microsoft.
El desarrollo de Abilene muestra algo nuevo: las dos compañías están construyendo infraestructura propia en paralelo, sin plena dependencia mutua. OpenAI diversifica ubicaciones para reducir su dependencia de Azure. Microsoft construye su propio data center junto al de OpenAI, asegurando capacidad propia al margen de los acuerdos contractuales con su socio.
Es una señal de madurez —y de tensión— en la relación más importante del ecosistema de IA. Ambas compañías siguen siendo socias estratégicas, pero cada una construye sus propias salvaguardas de infraestructura.
La nueva geografía de la IA: por qué Texas
Abilene no fue elegida por casualidad. Texas ofrece una combinación de factores que otros estados no pueden igualar: terreno barato, permisos de construcción ágiles, red eléctrica independiente (ERCOT) y política de atracción de inversión tecnológica. La transformación de una antigua granja de minería de criptomonedas en uno de los mayores centros de IA del mundo en menos de dos años ilustra la velocidad a la que el sector puede operar cuando los incentivos están alineados.
La paradoja energética también es visible aquí: tanto OpenAI como Microsoft han reconocido que sus instalaciones queman gas natural para generar electricidad, lo que genera presiones medioambientales crecientes. El CEO de OpenAI, Sam Altman, admitió el año pasado la tensión entre construir la «base industrial para la IA americana» y el compromiso climático. La industria camina sobre ese alambre: la demanda de cómputo no puede esperar, pero la presión regulatoria y reputacional tampoco desaparece.
Implicaciones para empresas y emprendedores digitales
El megacampus de Abilene no es solo una noticia de infraestructura. Sus implicaciones llegan hasta cualquier empresa que use servicios de IA en la nube:
- Más capacidad de Azure Copilot y GPT-5 para el mercado. La expansión de infraestructura de Microsoft se traduce directamente en mayor disponibilidad de sus servicios de IA enterprise: Copilot, Azure OpenAI, GitHub Copilot y Microsoft 365 AI.
- Competencia de precios en cloud de IA. A mayor oferta de cómputo, mayor presión a la baja sobre los precios de API. Las empresas que estén negociando contratos de IA enterprise en 2026 tienen posición de negociación más fuerte que hace un año.
- La descentralización de OpenAI abre oportunidades. Al reducir su dependencia de Azure y distribuir infraestructura en más ubicaciones, OpenAI estará en mejor posición para ofrecer contratos de latencia garantizada en diferentes regiones geográficas.
- El risk management de proveedores de IA importa. Que Microsoft y OpenAI construyan infraestructura independiente es buena noticia para los clientes: reduce el riesgo de un fallo catastrófico que afecte ambos servicios simultáneamente.
La carrera por construir la infraestructura física de la IA no da señales de desaceleración. Abilene, Texas, que el mundo del tech apenas conocía hace dos años, se convierte en uno de los centros neurálgicos de la computación global. Y lo más relevante: el ritmo al que esto ocurre —de granja de criptomonedas a gigavatio de IA en 24 meses— es la velocidad real del sector.
Con información de Creati.ai, Wall Street Journal, Reuters y Microsoft / Redacción VinzNetwork
y luego