{"id":131245,"date":"2026-03-16T19:13:25","date_gmt":"2026-03-17T01:13:25","guid":{"rendered":"https:\/\/pongara.net\/news\/el-verdadero-cuello-de-botella-de-la-ia-no-es-la-energia-sino-los-chips\/"},"modified":"2026-03-16T19:13:25","modified_gmt":"2026-03-17T01:13:25","slug":"el-verdadero-cuello-de-botella-de-la-ia-no-es-la-energia-sino-los-chips","status":"publish","type":"post","link":"https:\/\/pongara.net\/news\/el-verdadero-cuello-de-botella-de-la-ia-no-es-la-energia-sino-los-chips\/","title":{"rendered":"El verdadero cuello de botella de la IA no es la energ\u00eda, sino los chips"},"content":{"rendered":"<div>\n<div><img width=\"640\" height=\"384\" src=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/03\/canuto-imagine-1773709815-840x504-1.jpg\" class=\"attachment-large size-large wp-post-image\" alt=\"\" style=\"margin-bottom: 15px;\" loading=\"lazy\" decoding=\"async\" srcset=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/03\/canuto-imagine-1773709815-840x504-1.jpg 840w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/03\/canuto-imagine-1773709815-608x365.jpg 608w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/03\/canuto-imagine-1773709815-768x461.jpg 768w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/03\/canuto-imagine-1773709815.jpg 1226w\" sizes=\"auto, (max-width: 640px) 100vw, 640px\"><\/div>\n<p><strong>La expansi\u00f3n de la inteligencia artificial ya no depende solo de levantar m\u00e1s centros de datos o conseguir electricidad. Seg\u00fan Dylan Patel, CEO de SemiAnalysis, el l\u00edmite m\u00e1s duro para escalar c\u00f3mputo de IA hacia 2030 ser\u00e1 la capacidad global de fabricar chips avanzados, memoria y herramientas EUV.<br \/>\n***<\/strong><\/p>\n<ul>\n<li><strong>Dylan Patel afirm\u00f3 que el mayor cuello de botella para la IA ya no ser\u00e1 la energ\u00eda, sino la cadena de suministro de semiconductores.<\/strong><\/li>\n<li><strong>Anthropic y OpenAI necesitar\u00edan varios gigavatios adicionales de capacidad solo para sostener su crecimiento en inferencia y entrenamiento.<\/strong><\/li>\n<li><strong>La presi\u00f3n sobre memoria DRAM y HBM podr\u00eda encarecer smartphones, PCs y otros productos de consumo durante los pr\u00f3ximos a\u00f1os.<\/strong><\/li>\n<\/ul>\n<hr>\n<p>La carrera por escalar la inteligencia artificial est\u00e1 entrando en una fase menos visible para el gran p\u00fablico, pero mucho m\u00e1s decisiva para la econom\u00eda tecnol\u00f3gica global. Ya no se trata solo de construir centros de datos gigantescos o asegurar electricidad barata. El problema central, seg\u00fan Dylan Patel, CEO de SemiAnalysis, est\u00e1 m\u00e1s abajo en la cadena industrial: fabricar suficientes chips, suficiente memoria y suficientes herramientas avanzadas para producirlos.<\/p>\n<p>En una conversaci\u00f3n con Dwarkesh Patel titulada <a href=\"https:\/\/youtu.be\/mDG_Hx3BSUE?si=vT--wKWlb3CWNMCF\">Dylan Patel \u2014 The single biggest bottleneck to scaling AI compute<\/a>, el analista describi\u00f3 un panorama donde la expansi\u00f3n del c\u00f3mputo para IA depende cada vez m\u00e1s de obleas l\u00f3gicas, DRAM, HBM y m\u00e1quinas EUV. Su tesis es directa: la energ\u00eda seguir\u00e1 siendo un reto, pero el l\u00edmite estructural de aqu\u00ed a 2030 ser\u00e1 la manufactura de semiconductores.<\/p>\n<p>El planteamiento importa m\u00e1s all\u00e1 de Silicon Valley. La raz\u00f3n es simple. Si la IA sigue impulsando gasto r\u00e9cord en centros de datos y alquiler de c\u00f3mputo, tambi\u00e9n alterar\u00e1 cadenas de suministro enteras, desde Nvidia y TSMC hasta fabricantes de memoria, operadores el\u00e9ctricos y proveedores de hardware de consumo.<\/p>\n<p>Patel estim\u00f3 que el CapEx combinado proyectado este a\u00f1o para Amazon, Meta, Google y Microsoft ronda USD $600.000 millones. Si se suma el resto de la cadena de suministro, la cifra se acerca al orden de USD $1 bill\u00f3n. Sin embargo, aclar\u00f3 que no todo ese gasto se traduce en c\u00f3mputo disponible de inmediato, porque una parte importante se destina a dep\u00f3sitos para turbinas de 2028 y 2029, obras de centros de datos para 2027, acuerdos de compra de energ\u00eda y preparativos de infraestructura a largo plazo.<\/p>\n<h3>El tiempo real del CapEx y la urgencia de los laboratorios<\/h3>\n<p>Seg\u00fan Patel, <strong>en Estados Unidos se desplegar\u00edan este a\u00f1o cerca de 20 gigavatios de capacidad incremental.<\/strong> Una parte importante corresponde a hyperscalers, aunque no toda. Tambi\u00e9n participan otros jugadores de infraestructura. En ese contexto, los mayores compradores de c\u00f3mputo siguen siendo OpenAI y Anthropic, que actualmente estar\u00edan alrededor de entre 2 y 2,5 gigavatios y buscan escalar mucho m\u00e1s r\u00e1pido.<\/p>\n<p>El caso de Anthropic fue uno de los m\u00e1s llamativos de la conversaci\u00f3n. Patel se\u00f1al\u00f3 que, si la empresa contin\u00faa agregando ingresos al ritmo reciente, podr\u00eda incorporar USD $60.000 millones en ingresos durante los pr\u00f3ximos diez meses. Con los m\u00e1rgenes brutos mencionados en reportes de prensa, eso implicar\u00eda cerca de USD $40.000 millones de gasto en c\u00f3mputo para inferencia.<\/p>\n<p>Con costos de alquiler cercanos a USD $10.000 millones por gigavatio, esa expansi\u00f3n obligar\u00eda a Anthropic a sumar unos 4 gigavatios de capacidad de inferencia solo para sostener el crecimiento del negocio. Y eso, advirti\u00f3, asumiendo que su flota de entrenamiento e investigaci\u00f3n no crezca. En consecuencia, Patel cree que Anthropic necesitar\u00eda superar los 5 gigavatios hacia final de a\u00f1o.<\/p>\n<p>Su estimaci\u00f3n es que Anthropic podr\u00eda llegar a entre 5 y 6 gigavatios a finales de este a\u00f1o, combinando capacidad propia y despliegues servidos a trav\u00e9s de Bedrock, Vertex o Foundry. OpenAI, a\u00f1adi\u00f3, estar\u00eda en niveles similares o algo superiores. La diferencia clave es estrat\u00e9gica: OpenAI habr\u00eda asegurado acceso a m\u00e1s proveedores y contratos m\u00e1s agresivos, mientras Anthropic se mostr\u00f3 m\u00e1s conservadora para evitar compromisos financieros excesivos.<\/p>\n<h3>Por qu\u00e9 firmar antes importa m\u00e1s que tener el mejor modelo<\/h3>\n<p>Uno de los argumentos m\u00e1s fuertes de Patel es que, <strong>en un mercado con c\u00f3mputo limitado, la ventaja no solo est\u00e1 en desarrollar mejores modelos. Tambi\u00e9n est\u00e1 en cerrar contratos antes que los dem\u00e1s<\/strong>. OpenAI, dijo, asumi\u00f3 riesgos al firmar acuerdos de largo plazo con Microsoft, Google, Amazon, CoreWeave, Oracle y otros actores menos tradicionales, incluyendo SoftBank Energy y NScale.<\/p>\n<p>Anthropic, en cambio, habr\u00eda privilegiado proveedores de mayor calidad, como Google y Amazon, pero con una postura m\u00e1s prudente. Esa cautela hoy se traduce en menor flexibilidad. Si necesita capacidad adicional en el corto plazo, debe recurrir a neoclouds, capacidad remanente o acuerdos de revenue share, todos m\u00e1s caros que haber contratado con antelaci\u00f3n.<\/p>\n<p>Patel explic\u00f3 que en el mercado existen contratos de uno, dos o tres a\u00f1os que van venciendo, y esa capacidad puede ser capturada por quien m\u00e1s pague. Dijo haber visto acuerdos de H100 de entre USD $2,00 y USD $2,40 por hora a plazos de dos o tres a\u00f1os. Eso contrasta con un costo de despliegue cercano a USD $1,40 por hora para Hopper, medido a cinco a\u00f1os.<\/p>\n<p>La lectura financiera es clara. En un entorno donde el valor econ\u00f3mico por GPU sube porque los modelos generan m\u00e1s ingresos, quienes aseguraron c\u00f3mputo temprano conservan mejor margen. Quienes llegan tarde deben aceptar precios spot, plazos m\u00e1s caros o cesi\u00f3n de margen al proveedor cloud. Para Patel, en un mundo limitado por capacidad, esa diferencia contractual se vuelve una ventaja competitiva tangible.<\/p>\n<h3>El cuello de botella vuelve a los chips<\/h3>\n<p>Durante los \u00faltimos a\u00f1os, la industria fue rotando el foco del problema. Primero fue CoWoS. Luego la energ\u00eda. Despu\u00e9s la construcci\u00f3n de centros de datos. Ahora, <strong>seg\u00fan Patel, el cuello de botella vuelve al origen: chips y memoria.<\/strong> La raz\u00f3n es que las restricciones con menor plazo de resoluci\u00f3n ya fueron parcialmente absorbidas, mientras que fabricar semiconductores avanzados y expandir fabs toma mucho m\u00e1s tiempo.<\/p>\n<p>Patel record\u00f3 que <strong>levantar una fab puede requerir entre dos y tres a\u00f1os, mucho m\u00e1s que un centro de datos<\/strong>. Tambi\u00e9n subray\u00f3 que <strong>ya casi no queda capacidad para seguir desplazando producci\u00f3n desde mercados de m\u00f3viles y PCs hacia IA<\/strong>. Nvidia ya ser\u00eda el mayor cliente de TSMC y de SK Hynix, lo que reduce la posibilidad de seguir reasignando oferta existente.<\/p>\n<div class=\"diari-in-content-middle\" id=\"diari-2444939146\">\n<div id=\"diari-3815564090\" data-diari-trackid=\"195495\" data-diari-trackbid=\"1\" class=\"diari-target diari-target\"><\/div>\n<\/div>\n<p>Su visi\u00f3n es que, conforme avance la d\u00e9cada, <strong>el \u00faltimo gran cuello de botella terminar\u00e1 siendo ASML<\/strong>. <strong>La firma neerlandesa produce las herramientas EUV necesarias para litograf\u00eda avanzada. Hoy fabricar\u00eda unas 70 m\u00e1quinas al a\u00f1o. El pr\u00f3ximo a\u00f1o ser\u00edan 80. Incluso en escenarios agresivos, Patel proyecta poco m\u00e1s de 100 hacia el final de la d\u00e9cada.<\/strong><\/p>\n<h2>Esa cifra parece abstracta hasta que se traduce en c\u00f3mputo. <strong>Para desplegar 1 gigavatio de capacidad con chips Rubin de Nvidia<\/strong>, Patel calcul\u00f3 que s<strong>e requieren unas 55.000 obleas de 3 nm, 6.000 de 5 nm y unas 170.000 obleas de memoria DRAM<\/strong>. En total, <strong>eso supone alrededor de 2 millones de pases EUV<\/strong>. Como <strong>cada herramienta puede procesar unas 75 obleas por hora con un tiempo activo cercano a 90%<\/strong>, <span style=\"text-decoration: underline;\"><strong>ser\u00edan necesarias unas 3,5 m\u00e1quinas EUV por cada gigavatio<\/strong><\/span>.<\/h2>\n<h3>La matem\u00e1tica de 2030 y el l\u00edmite de ASML<\/h3>\n<p>Con esa l\u00f3gica, Patel sostiene que para el final de la d\u00e9cada podr\u00edan existir unas 700 herramientas EUV acumuladas en operaci\u00f3n a escala global. Si todo se dedicara a IA, eso equivaldr\u00eda a cerca de 200 gigavatios en chips para centros de datos. No ocurrir\u00e1 as\u00ed, porque parte de la capacidad seguir\u00e1 destinada a m\u00f3viles, PCs y otros sectores. Aun as\u00ed, sus n\u00fameros buscan mostrar que las aspiraciones de varios l\u00edderes del sector dependen de una cadena de suministro extremadamente concentrada.<\/p>\n<p>Sam Altman ha hablado de 1 gigavatio por semana en 2030. Elon Musk mencion\u00f3 100 gigavatios anuales en el espacio. Patel cree que esas metas son compatibles solo si se logra capturar una gran porci\u00f3n de la capacidad global de fabricaci\u00f3n. En su opini\u00f3n, no es un problema te\u00f3rico. Este mismo a\u00f1o, OpenAI tendr\u00eda acceso a cerca de 25% de los GPU Blackwell desplegados, lo que sugiere que ciertas asignaciones extremas s\u00ed son posibles.<\/p>\n<p>El problema es que la cadena de suministro no se expande al ritmo del entusiasmo de los laboratorios. Patel argument\u00f3 que muchos proveedores no est\u00e1n \u201cAGI-pilled\u201d, es decir, no creen en una expansi\u00f3n tan r\u00e1pida como para justificar inversiones todav\u00eda m\u00e1s agresivas. En su visi\u00f3n, OpenAI y Anthropic saben que necesitan X, Nvidia construye X menos 1, y m\u00e1s abajo en la cadena algunos proveedores apenas avanzan hacia X dividido entre 2.<\/p>\n<p>Eso explica por qu\u00e9 no basta con pedir m\u00e1s producci\u00f3n. ASML, Carl Zeiss, Cymer y decenas de miles de proveedores enfrentan procesos complejos, especializados y lentos. Patel describi\u00f3 las m\u00e1quinas EUV como los sistemas industriales m\u00e1s complejos fabricados por la humanidad, con \u00f3pticas de precisi\u00f3n extrema, fuentes de luz basadas en gotas de esta\u00f1o y componentes que se ensamblan en Pa\u00edses Bajos y luego se desmontan para enviarse al cliente.<\/p>\n<h3>Memoria, precios y da\u00f1o colateral al consumidor<\/h3>\n<p>La conversaci\u00f3n tambi\u00e9n se detuvo en otro frente sensible: la memoria. Patel afirm\u00f3 que cerca de 30% del CapEx de Big Tech en 2026 ir\u00eda a memoria. No solo a l\u00f3gica. Ese dato importa porque HBM y DRAM ya son parte central del costo de los aceleradores modernos.<\/p>\n<p>Seg\u00fan su an\u00e1lisis, la presi\u00f3n sobre memoria seguir\u00e1 intensific\u00e1ndose y los precios continuar\u00e1n subiendo. Eso no solo encarece la infraestructura de IA. Tambi\u00e9n presiona a fabricantes de tel\u00e9fonos, PCs y otros dispositivos de consumo. Patel dio un ejemplo simple: si un iPhone incorpora 12 GB de memoria y el costo por gigabyte sube desde unos USD $3 o USD $4 hasta alrededor de USD $12, el impacto directo sobre el costo del equipo ser\u00eda muy significativo.<\/p>\n<p>En su escenario, el alza de DRAM y NAND podr\u00eda traducirse en un incremento de hasta USD $250 en el precio final de un iPhone entre mayores costos y traspaso al consumidor. En gamas bajas y medias el golpe ser\u00eda a\u00fan peor, porque el peso de memoria y almacenamiento en la estructura de costos es mayor y los m\u00e1rgenes son m\u00e1s ajustados.<\/p>\n<p>Patel proyect\u00f3 que el mercado mundial de smartphones podr\u00eda caer desde unos 1.100 millones de unidades hacia entre 800 millones este a\u00f1o y entre 500 millones y 600 millones el pr\u00f3ximo, con recortes m\u00e1s severos en gama baja y media. En su lectura, la IA no solo reorganiza centros de datos. Tambi\u00e9n podr\u00eda deteriorar la relaci\u00f3n precio-rendimiento de productos cotidianos, alimentando mayor rechazo social a esta ola tecnol\u00f3gica.<\/p>\n<h3>Energ\u00eda, China y el debate sobre espacio<\/h3>\n<p>A diferencia del panorama para chips, Patel se mostr\u00f3 mucho m\u00e1s optimista sobre energ\u00eda. Cree que la red, las turbinas y la generaci\u00f3n detr\u00e1s del medidor pueden expandirse m\u00e1s r\u00e1pido de lo que muchos asumen. Cit\u00f3 no solo turbinas de ciclo combinado, sino aeroderivadas, motores rec\u00edprocos, motores marinos, celdas de combustible, bater\u00edas, solar y otras alternativas.<\/p>\n<p>Su tesis es que Estados Unidos y otros mercados pueden a\u00f1adir cientos de gigavatios de capacidad el\u00e9ctrica antes del final de la d\u00e9cada. El reto ser\u00e1 duro, pero no tan r\u00edgido como el de semiconductores. Por eso considera que los centros de datos en el espacio no tienen sentido econ\u00f3mico todav\u00eda. En un mundo limitado por chips, lo importante es poner cada GPU a producir tokens lo antes posible, no retrasarla meses envi\u00e1ndola fuera del planeta.<\/p>\n<p>Sobre China, Patel plante\u00f3 un escenario m\u00e1s ambiguo. Cree que el pa\u00eds podr\u00eda lograr DUV plenamente indigienizado antes de 2030 y tener herramientas EUV funcionales hacia ese momento, aunque no necesariamente producidas en masa. Si los plazos de la IA son largos, China podr\u00eda recortar parte de la ventaja occidental gracias a mayor verticalizaci\u00f3n industrial. Si los plazos son r\u00e1pidos, la ventaja de Estados Unidos y sus aliados podr\u00eda ampliarse primero.<\/p>\n<p>En conjunto, la entrevista dibuja una conclusi\u00f3n inc\u00f3moda para el mercado. La pr\u00f3xima fase de la IA no depender\u00e1 solo del talento algor\u00edtmico ni del apetito de capital. Depender\u00e1 de la parte m\u00e1s lenta, costosa y f\u00edsica del sistema. Quien entienda antes esa aritm\u00e9tica industrial tendr\u00e1 una ventaja desproporcionada sobre el resto.<\/p>\n<hr>\n<p><em>Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio P\u00fablico.<\/em><\/p>\n<p><em>Este art\u00edculo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisi\u00f3n.<\/em><\/p>\n<div class=\"footer-entry-meta\"><\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>La expansi\u00f3n de la inteligencia artificial ya no depende solo de levantar m\u00e1s centros de datos o conseguir electricidad. Seg\u00fan Dylan Patel, CEO de SemiAnalysis, [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":131246,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[2,1],"tags":[6784,285,4457,1232,1268,4558],"class_list":["post-131245","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-crypto","category-noticias","tag-botella","tag-crypto","tag-cuello","tag-energia","tag-noticias","tag-verdadero"],"_links":{"self":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts\/131245","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/comments?post=131245"}],"version-history":[{"count":0,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts\/131245\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/media\/131246"}],"wp:attachment":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/media?parent=131245"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/categories?post=131245"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/tags?post=131245"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}