
La carrera global por la inteligencia artificial entró en una fase más agresiva, con nuevos modelos, más gasto en infraestructura, señales de escasez energética y valoraciones que ya empiezan a rozar niveles difíciles de justificar con métricas tradicionales.
***
- Anthropic, OpenAI, xAI, Meta, Alibaba y ByteDance protagonizan una nueva escalada en modelos, cómputo y capacidades.
- La demanda de inferencia crece más rápido que la oferta de FLOPs, lo que anticipa presión sobre precios y una migración hacia modelos más eficientes.
- Nvidia, CoreWeave y OpenAI concentran parte del entusiasmo de mercado, mientras la infraestructura física y energética empieza a mostrar límites.
La inteligencia artificial atraviesa un momento de aceleración simultánea en modelos, infraestructura, aplicaciones y mercado de capitales. La conversación ya no gira solo en torno a qué laboratorio lanza el sistema más capaz, sino también a quién puede sostener el ritmo de entrenamiento, absorber el costo energético y convertir esa ventaja técnica en negocio real.
Ese trasfondo ayuda a explicar por qué la narrativa reciente del sector mezcla avances espectaculares con advertencias cada vez más concretas. En un mismo ciclo aparecen nuevos modelos orientados a ciberseguridad, experimentos que prometen razonamiento superior, robots domésticos camuflados como muebles, presiones sobre la cadena de suministro y valoraciones bursátiles que parecen descontar un cambio estructural de gran escala.
El repaso de estos movimientos sugiere que 2026 podría marcar una transición. El foco se está desplazando desde la simple potencia bruta hacia una competencia más compleja, en la que cuentan tanto el gusto en producto como la disponibilidad de chips, energía y talento de ingeniería.
Anthropic, OpenAI y xAI elevan la intensidad competitiva
Uno de los puntos más comentados fue el anuncio de Mythos por parte de Anthropic. A partir de ese lanzamiento, algunos comentaristas advirtieron que “será inseguro” que los humanos escriban código en absoluto, dado el nivel sobrehumano que el modelo exhibiría para descubrir vulnerabilidades. La idea, planteada casi como provocación, invierte el miedo habitual: lo peligroso ya no sería solo la IA, sino también el código artesanal escrito por personas.
El mismo repaso sostiene que Mythos parece ser la primera clase de modelos entrenada a escala sobre Blackwells, mientras las Vera Rubins aguardan como siguiente relevo generacional. Ese cambio de hardware estaría ocurriendo en un momento en el que el preentrenamiento aún tendría margen, el aprendizaje por refuerzo seguiría dando resultados y además comenzaría a llegar una nueva ola de cómputo.
De forma paralela, OpenAI estaría finalizando un despliegue escalonado de un modelo cibernético propio, al estilo de Mythos, para un pequeño grupo de socios. Aunque no se detallaron nombres ni fechas exactas, la referencia refuerza la idea de que la competencia entre laboratorios ya se está moviendo hacia sistemas especializados con potencial impacto directo en seguridad digital.
En el caso de xAI, Elon Musk aseguró que Colossus 2 de SpaceXAI tiene ahora 7 modelos en entrenamiento. Entre ellos mencionó Imagine V2, variantes gemelas de 1T y 1.5T, y un modelo de 10T, con corridas de preentrenamiento que durarían cerca de dos meses cada una. Sin embargo, un memorando filtrado del nuevo presidente de xAI tras la fusión, quien también dirige Starlink, habría admitido que el laboratorio está “claramente por detrás” de otras firmas de frontera y que reorganiza su ingeniería antes de la OPV de SpaceX.
Ese matiz importa porque introduce una diferencia clave en el debate actual. Tener muchas corridas de entrenamiento simultáneas no garantiza liderazgo tecnológico. El documento citado sugiere que la escala de cómputo, por sí sola, no puede fabricar criterio ni producto de frontera.
Meta, Alibaba y ByteDance muestran que el zoológico de modelos se diversifica
La rápida diversificación de modelos también quedó expuesta en otros frentes. Muse Spark de Meta, el primer modelo lanzado bajo Alexandr Wang, fue descrito como “el modelo de un CEO de etiquetado de datos”, una frase que resume su desempeño: sobresaldría en benchmarks de calidad de datos, pero fallaría en los de razonamiento.
La crítica funciona también como comentario sobre cultura organizacional. Según esa lectura, cada empresa termina enviando al mercado el tipo de modelo que mejor refleja su organigrama, sus incentivos y su experiencia previa. En un entorno de competencia feroz, esa diferencia puede pesar tanto como el tamaño del cluster de entrenamiento.
Alibaba, por su parte, lanzó de manera anónima HappyHorse-1.0. El modelo tomó de inmediato el puesto número 1 en los rankings de texto a video e imagen a video de Artificial Analysis, desplazando a Seedance 2.0 de ByteDance al segundo lugar. La actualización refuerza la velocidad con la que cambia el liderazgo en generación multimedia.
ByteDance respondió con una estrategia distinta. En lugar de limitarse a construir modelos más grandes, estaría haciendo más inteligentes modelos antiguos a mitad de vuelo mediante In-Place Test-Time Training. El método reutiliza matrices de proyección MLP como fast weights, con el objetivo de que un modelo de 4B pueda dominar contextos de 128k.
Al mismo tiempo, investigadores de OpenAI resolvieron 5 problemas más de Erdős en combinatoria, probabilidad y teoría de números. Más allá del efecto simbólico, el dato ilustra cómo la IA empieza a penetrar terrenos donde antes la barrera no era solo computacional, sino también profundamente intelectual.
La infraestructura física empieza a tensarse
El crecimiento de capacidad no está siendo uniforme. Scott Wu, de Cognition, indicó que los FLOPs globales crecen alrededor de 3 veces por año, mientras la demanda de inferencia aumenta cerca de 10 veces. Esa brecha anticipa subidas de precios y una posible migración hacia modelos más pequeños, delgados y más baratos de operar.
La presión también es visible en fabricación avanzada. El empaquetado CoWoS de TSMC está creciendo a una tasa compuesta anual de 80%, con la mayor parte de la capacidad reservada para Nvidia. Esta pieza de la cadena se ha vuelto crítica porque condiciona cuántos aceleradores realmente pueden llegar al mercado y en qué plazos.
En paralelo, Meta comprometió otros USD $21.000 millones a CoreWeave hasta 2032, además de un acuerdo previo por USD $14.200 millones. La magnitud de ese gasto muestra que el acceso a capacidad de cómputo ya no es un tema secundario para las grandes tecnológicas, sino una prioridad estratégica de largo plazo.
Ni siquiera los proyectos más ambiciosos parecen inmunes a los límites materiales. OpenAI pausó la expansión de Stargate en Reino Unido, citando costos energéticos y regulación. A su vez, Epoch AI calculó que los laboratorios chinos y abiertos operan con aproximadamente 10 veces menos cómputo que la frontera, una brecha que ayudaría a explicar tanto su creatividad como su urgencia.
La respuesta alemana al cuello de botella energético ofrece una imagen poderosa del momento. El país construye la turbina eólica más alta del mundo, de 364 metros, dentro de una mina de carbón. La escena sintetiza una transición industrial en la que el futuro digital depende de resolver tensiones físicas muy concretas.
Aplicaciones, robots y biotecnología amplían el frente de la IA
La capa de aplicaciones también está acelerando. El ARR de Perplexity se duplicó hasta USD $500 millones desde Año Nuevo, señal de que los productos basados en IA empiezan a capturar ingresos a una velocidad poco habitual incluso para estándares de software de alto crecimiento.
Tubi se convirtió en el primer gran servicio de streaming en lanzar una app nativa dentro de ChatGPT. El movimiento sugiere que la ventana conversacional comienza a funcionar como una nueva guía de canales, donde descubrir, navegar y consumir contenido puede ocurrir sin salir del asistente.
Google respondió con Notebooks en la app de Gemini, integrando NotebookLM directamente dentro del asistente para que chats, fuentes y archivos compartan un mismo espacio de trabajo. Para usuarios de productividad e investigación, esta convergencia apunta a una experiencia más unificada entre búsqueda, lectura, síntesis y generación de contenido.
La incorporación física de la IA avanza por un camino menos obvio que el del robot humanoide clásico. Syncere presentó Lume, un robot con forma de lámpara promocionado como algo que “hace tus tareas”. La propuesta sugiere que el primer robot doméstico de mercado masivo podría llegar disfrazado de objeto cotidiano, no como una figura antropomórfica.
Fuera del software, la llamada pila humana también exhibe novedades. Life Biosciences recaudó USD $80 millones para comenzar ensayos clínicos de una terapia génica antienvejecimiento. Además, se proyecta que los fármacos GLP-1 añadirán USD $13.000 millones en ventas de ropa, a medida que muchos consumidores estadounidenses necesiten tallas menores. En ese contexto, el iPhone Fold seguiría encaminado a un lanzamiento en septiembre.
Mercados, divulgación oficial y valoraciones extremas
En el terreno político y cultural, también aparecen señales de aceleración. El representante Ogles afirmó que la Casa Blanca registró “Aliens.gov” porque el presidente quiere ser “el tipo que reveló la verdad” y establecer una línea base “histórica” sobre los UAP. A la vez, la HR 8197 del representante Burchett disolvería por completo AARO, en lo que se interpreta como un voto de no confianza hacia la oficina del Pentágono encargada de controlar la información sobre ese tema.
En los mercados, incluso los modelos más conservadores empiezan a entregar cifras llamativas. El modelo HOLT de UBS, una herramienta tradicional de valoración por flujo de caja, situó el valor razonable de Nvidia en USD $22 billones. Aunque ese número no implica consenso universal, sí evidencia hasta qué punto el mercado está dispuesto a proyectar la captura futura de rentas asociadas a la IA.
OpenAI también aparece en el centro de ese entusiasmo. Su directora financiera, Sarah Friar, dijo que los inversionistas minoristas “seguro” obtendrán acciones de la OPV después de una demanda muy fuerte por parte de individuos en la ronda más reciente. La frase resume el apetito actual: los mercados de capitales quieren comprar participación mientras la singularidad, al menos por ahora, todavía se expresa en dólares.
En conjunto, el panorama deja una conclusión clara. La carrera por la IA ya no puede analizarse solo desde la óptica del laboratorio más brillante. Ahora confluyen chips, empaquetado, energía, software, robótica, biotecnología y finanzas. Esa combinación eleva el potencial transformador del sector, pero también multiplica sus puntos de presión.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
