
OpenAI enfrenta crecientes dudas sobre su estrategia, valoración y ritmo de ejecución mientras Anthropic gana tracción en el mercado empresarial. Al mismo tiempo, la escasez de cómputo, el rechazo local a nuevos centros de datos y el debate sobre el verdadero retorno económico de la IA comienzan a redefinir la competencia entre laboratorios, hyperscalers y Wall Street.
***
- OpenAI habría girado hacia clientes empresariales y la capa de agentes, en medio de críticas internas y externas por falta de enfoque.
- Anthropic fue descrita como una competidora con un ritmo de crecimiento e innovación superior, especialmente en codificación y uso corporativo.
- La expansión de centros de datos enfrenta obstáculos políticos, energéticos y sociales que podrían frenar a toda la industria de IA.
La competencia entre los grandes laboratorios de inteligencia artificial atraviesa una fase más compleja que la simple carrera por lanzar mejores modelos. Ahora entran en juego la estructura del negocio, la capacidad de monetizar el uso empresarial, el acceso a infraestructura propia y la posibilidad de sostener valoraciones privadas que ya rozan niveles históricos.
En una conversación reciente del programa OpenAI’s Identity Crisis, Datacenter Wars, Market Up on Iran News, Mamdani’s First Tax, Swalwell Out, del canal All-In Podcast, se discutieron las tensiones que hoy rodean a OpenAI, Anthropic y al resto del sector. El intercambio mostró un consenso parcial: la batalla por la IA ya no depende solo del modelo más capaz, sino de quién convierta crecimiento en ingresos sostenibles y de quién consiga suficiente energía y cómputo para seguir escalando.
El debate resulta especialmente relevante para lectores interesados en mercados tecnológicos y activos de riesgo, porque la IA se ha convertido en uno de los principales motores narrativos detrás de la apreciación bursátil de firmas tecnológicas, proveedores de infraestructura y hasta empresas ajenas al sector que intentan reposicionarse alrededor del auge del cómputo.
OpenAI bajo presión por foco, estrategia y valoración
Uno de los puntos centrales fue la aparente crisis de identidad de OpenAI. Según se comentó, Denise Dresser, directora de ingresos de la empresa, envió un memorando de cuatro páginas a empleados en el que habría cuestionado la narrativa de Anthropic. Entre otras cosas, sostuvo que la cifra de USD $30.000 millones de tasa anual de ingresos atribuida a su rival estaría inflada en USD $8.000 millones por acuerdos de revenue share y criterios contables vinculados a proveedores de modelos.
Ese mismo documento también habría acusado a Anthropic de construir una narrativa basada en el miedo, la restricción y la idea de que un pequeño grupo de élites debería controlar la IA. Además, delineó una reorientación de OpenAI hacia clientes empresariales y hacia la llamada capa de plataforma de agentes, un segmento visto por muchos inversionistas como una vía de monetización más robusta que la suscripción de consumo.
La discusión se intensificó cuando se mencionó que, pocos días después de ese memo, surgieron versiones de inversionistas de OpenAI frustrados con la falta de foco de la compañía. Una de las críticas citadas fue que, teniendo ChatGPT como un negocio de 1.000 millones de usuarios y con crecimiento de entre 50% y 100% anual, resultaba difícil entender por qué la empresa dispersaba sus esfuerzos en múltiples frentes en lugar de concentrarse en consolidar su liderazgo de consumo.
También se puso sobre la mesa la valoración de OpenAI. Se mencionó que el mercado secundario ya estaría asignando a Anthropic un valor superior por primera vez, y que algunos inversionistas consideran que OpenAI necesitaría salir a bolsa cerca de una valoración de USD $1,2 billones para justificar plenamente su ronda más reciente de USD $850.000 millones. A eso se suma, según lo dicho en la conversación, la falta de compradores dispuestos a convalidar hoy ese precio.
Anthropic gana tracción con empresa y codificación
Frente a esas dudas, Anthropic fue presentada como una firma con mejor ejecución reciente. Varios participantes señalaron que su ritmo de lanzamientos ha sido extraordinario y que, al menos en sus organizaciones, el uso de herramientas de Anthropic para programación pasó a dominar frente a opciones que meses atrás parecían más sólidas.
El argumento principal fue que la empresa se enfocó desde temprano en el mercado corporativo, en especial en tareas de codificación. Esa decisión tendría una consecuencia directa sobre los ingresos. Mientras el consumidor típico prefiere una suscripción de “todo incluido” por unos USD $20 al mes y solo una pequeña fracción se convierte a pago, las compañías sí aceptan pagar por tokens de código en una lógica de consumo medido, más parecida a la electricidad.
Con esa estructura, el crecimiento de Anthropic habría sido mucho más veloz. En la charla se afirmó que OpenAI y Anthropic rondaban los USD $30.000 millones de ingresos anualizados al comienzo del segundo trimestre, pero con trayectorias muy distintas. OpenAI crecería a una tasa aproximada de 3x a 4x anual, mientras Anthropic lo haría cerca de 10x, una diferencia que, de mantenerse, podría volverse decisiva.
También se mencionó que Anthropic podría cerrar el año entre USD $80.000 millones y USD $100.000 millones de ingresos si conserva su trayectoria actual. Sin embargo, los propios comentaristas advirtieron que ningún crecimiento exponencial puede sostenerse indefinidamente. Llegado cierto punto, aparecen límites físicos: electricidad, centros de datos, disponibilidad de chips, capacidad de enfriamiento e incluso restricciones de despliegue comercial.
El cuello de botella ya no es solo el modelo, sino la infraestructura
Buena parte del análisis giró hacia una idea clave: tanto OpenAI como Anthropic están creciendo a una velocidad tal que ya no pueden depender cómodamente de terceros para abastecerse de cómputo. En la fase inicial de una empresa es razonable alquilar capacidad a hyperscalers, pero cuando el negocio alcanza escala de frontera, esa dependencia se vuelve un riesgo estratégico.
Según la conversación, los hyperscalers controlarían cerca del 60% del cómputo disponible. Eso introduce una tensión evidente. Si un laboratorio independiente necesita más capacidad, debe negociar con empresas que, en varios casos, compiten también en IA. De allí la tesis de que tanto OpenAI como Anthropic acabarán necesitando desarrollar o controlar más infraestructura propia.
Se citó además el ejemplo de xAI y de la expansión de Colossus, el clúster impulsado por Elon Musk. Allí se habló de una ampliación hasta 550.000 GPU repartidas en tres edificios, con una inversión de USD $18.000 millones. En paralelo, también se mencionó Prometheus, el proyecto planeado por Meta para 2026 con 150.000 GPU, como señal de que las grandes tecnológicas tradicionales aún tienen margen para competir gracias a sus flujos de caja e infraestructura.
El problema es que construir capacidad no depende solo de dinero. Requiere terreno, energía, permisos, gas natural, soluciones de generación local y aceptación política. Y ahí aparece un nuevo frente de conflicto para toda la industria.
Centros de datos: rechazo social, política local y temor económico
Uno de los tramos más duros del intercambio fue el que abordó la creciente oposición a los centros de datos en Estados Unidos. Se sugirió que el rechazo no se explica únicamente por preocupaciones ambientales o por argumentos de “riesgo existencial” de la IA. También estaría alimentado por resentimiento económico y por la percepción de que estos complejos representan la riqueza de una élite tecnológica mientras la mayoría no percibe beneficios tangibles.
Entre los ejemplos mencionados, se habló de un municipio que aprobó un centro de datos de USD $6.000 millones y luego reemplazó rápidamente aparte de su junta local para intentar revertir la decisión. También se afirmó que Maine habría aprobado una ley para prohibir nuevas construcciones de centros de datos, y que cerca de 100 proyectos están siendo disputados en todo el país, con alrededor del 40% terminando cancelados.
El costo económico de esos proyectos en disputa se estimó en USD $162.000 millones. Más allá de si todos esos números terminan materializándose, el punto central fue claro: la industria enfrenta un problema político serio. Sin nuevos centros de datos, la demanda de modelos más complejos puede chocar con un techo de infraestructura, afectando ingresos y calidad de servicio, algo que en la charla se comparó con el “efecto Friendster”, cuando una plataforma líder pierde tracción porque no logra mantenerse operativa a la velocidad del crecimiento.
También se discutió el esfuerzo de algunas compañías por llevar su propia energía. El modelo “bring your own energy” fue mencionado como salida parcial, mediante gas natural, diésel o solar. Aun así, se advirtió que esto no resuelve del todo el diseño económico de las utilities, cuyos incentivos regulatorios muchas veces siguen empujando mayores inversiones y tarifas más altas.
Mercado, narrativa y el debate sobre el retorno real de la IA
La conversación se cruzó con otra pregunta de fondo: si las valoraciones actuales del mercado reflejan un retorno genuino de la IA o una expectativa todavía adelantada a la realidad. Se citaron métricas como el Shiller PE y el llamado indicador Buffett para sostener que las valuaciones lucen elevadas. Al mismo tiempo, se señaló que solo unas pocas empresas explican gran parte de la fortaleza bursátil reciente, lo que sugiere una dispersión inusual.
Pese a ello, también se defendió la idea de que la IA ya produce mejoras reales de productividad, sobre todo en compañías tecnológicas bien dirigidas y en startups que la integran desde el inicio. El desacuerdo estuvo en el tamaño de ese efecto. Mientras algunos participantes dijeron ver aumentos claros en velocidad de desarrollo y capacidad operativa, otros subrayaron que aún faltan ejemplos a gran escala donde esa eficiencia se traduzca en una ola visible de ingresos y beneficios en corporaciones complejas.
Ese matiz es importante para inversionistas. Si la tesis es que la IA justificará capitalizaciones de varios billones de dólares, entonces tarde o temprano deberá probarse en casos de uso empresariales masivos, con ganancias sostenibles y no solo con entusiasmo de mercado, crecimiento de usuarios o rondas récord de financiación.
En ese sentido, la discusión dejó una conclusión útil: la próxima fase de la carrera por la IA no se decidirá solo por quién tenga el chatbot más popular. Se decidirá por quién logre unir producto, monetización, infraestructura, energía y narrativa pública en un mismo sistema operativo de negocio. Hoy, OpenAI sigue siendo el nombre más visible. Pero Anthropic, los hyperscalers y otros actores ya están presionando desde todos los frentes.
