
Anthropic, la empresa detrás del asistente de inteligencia artificial Claude, está en conversaciones preliminares con Goldman Sachs, JPMorgan y Morgan Stanley para una salida a bolsa valorada en 60.000 millones de dólares, prevista para octubre de 2026. La noticia llega el mismo día en que un juez federal de Estados Unidos bloqueó el intento de la administración Trump de incluir a Anthropic en una lista negra de proveedores de riesgo para la seguridad nacional —después de que la compañía se negara a eliminar los guardarraíles de seguridad de sus modelos para uso militar—. Dos noticias que juntas definen el momento más crítico en la historia de la empresa fundada por Dario Amodei.
El IPO de 60.000 millones: Anthropic se prepara para cotizar en bolsa
Según fuentes citadas por medios especializados, Anthropic llevaría meses explorando en silencio la posibilidad de una oferta pública inicial. La cifra de 60.000 millones de dólares como objetivo de valoración la convertiría en una de las mayores salidas a bolsa tecnológicas de la historia reciente, a la altura de nombres como Snowflake, Palantir o Coinbase en sus respectivos debuts.
El timing no es casual. La empresa ha diseñado una ventana estratégica: a finales de 2026, el mercado tendrá datos suficientes sobre el retorno de la inversión empresarial en IA generativa para valorar el negocio con mayor certeza. Si Claude mantiene su ritmo de adopción en segmentos enterprise —donde compite directamente con GPT-4.5 de OpenAI y Gemini Ultra de Google— la valoración de 60.000 millones podría quedarse conservadora.
Los motores del crecimiento de Anthropic son claros:
- Claude en enterprise: Acuerdos masivos con empresas como Accenture, que lanzó Cyber.AI basada en Claude para ciberseguridad operativa
- API y partnerships: Presencia creciente como motor de IA en productos de terceros, desde startups hasta Fortune 500
- Diferenciación por seguridad: La reputación de «IA responsable» es una ventaja comercial real en sectores regulados como finanzas, salud y legal
- iOS 27: La integración de Claude directamente en Siri, anunciada por Apple para WWDC 2026, representa un canal de distribución sin precedentes
El juicio que lo cambia todo: Trump vs. Anthropic
El mismo 28 de marzo de 2026, la jueza federal Rita Lin emitió una orden de prohibición preliminar bloqueando la decisión del Pentágono de catalogar a Anthropic como «riesgo de seguridad en la cadena de suministro nacional». Si hubiera prosperado, esa designación habría impedido a la empresa participar en contratos con el gobierno federal y habría erosionado gravemente su posición en el mercado.
El conflicto tiene un origen concreto: la administración Trump exigió que Anthropic eliminara los guardarraíles éticos de Claude para permitir su uso sin restricciones en aplicaciones militares. Anthropic se negó. El Pentágono respondió con la designación de riesgo. La jueza Lin concluyó que esa secuencia constituía probablemente una represalia ilegal, no una evaluación legítima de seguridad nacional.
La decisión judicial establece un precedente de enorme importancia para toda la industria:
- Las empresas de IA no pueden ser obligadas a modificar sus arquitecturas de seguridad bajo amenaza de exclusión gubernamental
- El código fuente y sus guardarraíles tienen protección constitucional bajo la Primera Enmienda como expresión de ideas
- La autonomía técnica de los laboratorios de IA frente a presiones regulatorias queda reforzada judicialmente
Microsoft ya había apoyado a Anthropic en una solicitud de orden de restricción temporal en marzo. La resolución final de la jueza Lin consolida esa victoria y la extiende como precedente aplicable a futuros casos similares.
Claude Mythos: la filtración que nadie esperaba
Mientras todo esto ocurría, también se filtró que Anthropic está probando internamente un nuevo modelo de IA bajo el nombre en clave «Mythos». Según investigadores de seguridad que accedieron a información sobre el sistema, el modelo representa «un cambio de nivel en las capacidades» —una expresión que en el ecosistema de la IA generalmente significa un salto generacional, no incremental.
La misma filtración advierte que las capacidades avanzadas de razonamiento de Mythos podrían representar nuevos riesgos en ciberseguridad. Anthropic confirmó la existencia del modelo pero no reveló detalles sobre su calendario de lanzamiento.
Qué significa para el mercado de la IA y los negocios digitales
La combinación de IPO, victoria judicial y nuevo modelo de frontera posiciona a Anthropic como el protagonista más relevante del ecosistema de IA en este momento. Para empresas y emprendedores digitales, las implicaciones son directas:
- Claude como opción enterprise madura. La solidez financiera post-IPO y la independencia jurídica respecto a presiones gubernamentales hacen de Anthropic una apuesta más estable para construir productos sobre su API.
- La regulación de la IA tiene límites judiciales. Los gobiernos no pueden usar la palanca de la contratación pública para forzar decisiones técnicas en empresas de IA. Eso protege también a las startups que usen modelos de terceros con restricciones de uso.
- La carrera de los IPOs de IA es inevitable. Después de OpenAI y ahora Anthropic, las salidas a bolsa de los grandes laboratorios de IA darán a los inversores acceso directo al sector más dinámico del mercado tecnológico. La ventana para valoraciones atractivas en etapas privadas se cierra.
- Mythos cambiará la oferta enterprise de Claude. Si el nuevo modelo amplía las capacidades de razonamiento de Claude de forma generacional, los productos y flujos de trabajo construidos sobre Claude API recibirán una mejora automática sin coste adicional.
En un solo día, Anthropic ha demostrado que puede crecer hacia los mercados públicos, resistir presiones políticas y seguir avanzando en la frontera técnica simultáneamente. Para los competidores, es la señal más clara hasta ahora de que la carrera por la IA de próxima generación tiene un segundo corredor de primer nivel. Para los negocios digitales, es la confirmación de que diversificar el stack de IA ya no es opcional: es estrategia.
Con información de Creati.ai, Goldman Sachs sources, TechStartups y Reuters / Redacción VinzNetwork
y luego