Si construyes, diseñas o vendes con IA, esto te afecta directamente ahora mismo. La administración Trump ha anunciado a bombo y platillo una inversión masiva en centros de datos de IA —el proyecto Stargate, 500.000 millones de dólares sobre la mesa— pero los números reales sobre el terreno cuentan una historia completamente diferente. No es ideología. Es ingeniería, economía y física básica. Y los cuellos de botella que están ignorando van a determinar qué herramientas tienes disponibles, a qué precio y desde dónde en los próximos 24 meses.

El problema que no sale en los titulares: la energía no aparece de la nada

Construir un centro de datos de escala hiperescalar no es levantar un edificio. Es crear una pequeña ciudad industrial que consume entre 100 y 500 megavatios de potencia eléctrica de forma continua. El problema inmediato en Estados Unidos no es el capital ni la voluntad política: es la red eléctrica.

Las utilities americanas tienen listas de espera de 5 a 7 años para conectar nuevos grandes consumidores a la red. Mississippi, Texas, Virginia —los estados que Trump está promocionando como hubs de IA— ya tienen sus corredores de transmisión saturados. MISO, el operador de la red en el Medio Oeste, reportó en 2024 una cola de solicitudes de conexión que supera los 2.600 gigavatios. Para contexto: toda la capacidad instalada actual en EE.UU. es de aproximadamente 1.200 GW.

Las promesas de desregulación no construyen subestaciones más rápido. Los transformadores de alta tensión tienen tiempos de fabricación de 2 a 4 años y la mayor parte se produce en Europa y Asia. Ningún decreto ejecutivo resuelve eso en el corto plazo.

Los chips siguen siendo el cuello de botella real, y las restricciones complican todo

Stargate depende de GPUs de NVIDIA —principalmente H100 y la nueva arquitectura Blackwell— para su capacidad de cómputo. Aquí aparece una contradicción estructural que la administración no ha resuelto: las políticas de control de exportación que el propio gobierno estadounidense mantiene activas limitan la venta de chips avanzados a terceros países, pero también complican las cadenas de suministro de los propios centros de datos que quieren construir.

TSMC, que fabrica los chips de NVIDIA en Taiwán, está construyendo plantas en Arizona —con subsidios del CHIPS Act— pero la primera planta en Phoenix no alcanzará producción de chips de 3nm a escala comercial antes de 2026. La segunda, para nodos más avanzados, no antes de 2028. Mientras tanto, cada GPU H100 sigue siendo un recurso escaso que se rifa entre Microsoft, Google, Meta, Amazon y los nuevos actores del ecosistema.

Para los estudios y agencias como la nuestra que usamos plataformas como Runway ML, Midjourney, Sora, Stable Diffusion XL o Flux, esto se traduce en precios de inferencia que no bajan tan rápido como deberían, y en capacidad de cómputo que sigue siendo un privilegio de quien puede pagar enterprise contracts.

El capital está, pero el talento y la ejecución no escalan igual de rápido

OpenAI, SoftBank, Oracle y los socios de Stargate tienen el dinero comprometido sobre el papel. El problema es que anunciar una inversión y ejecutarla son dos fases completamente distintas. Los proyectos de infraestructura de esta escala históricamente sufren sobrecostes del 30-80% y retrasos de 2 a 3 años respecto a las proyecciones iniciales.

Además, construir y operar centros de datos de IA de nueva generación requiere perfiles técnicos extremadamente específicos: ingenieros de refrigeración líquida, especialistas en redes de fibra oscura, arquitectos de sistemas distribuidos familiarizados con InfiniBand y NVLink. El mercado laboral para estos perfiles está en déficit global. No hay suficientes ingenieros para ejecutar la velocidad de construcción que se está prometiendo públicamente.

Lo que sí está ocurriendo, y más rápido de lo que se cubre mediáticamente, es la expansión de infraestructura en Europa y el Golfo Pérsico. Microsoft acaba de comprometer 4.300 millones de euros en España para 2025-2026. Google está expandiendo en Finlandia y Polonia. Los Emiratos Árabes Unidos están construyendo capacidad de cómputo masiva con menos fricción regulatoria y con energía más barata. El mapa de la IA global no tiene un solo centro de gravedad, y las políticas de la administración Trump están acelerando esa diversificación, no frenándola.

Qué puedes hacer tú hoy con esta información

No esperes a que la infraestructura americana se resuelva para tomar decisiones sobre tu stack tecnológico. Diversifica tus proveedores de cómputo ahora. Si dependes exclusivamente de OpenAI API o de Midjourney para producción, estás expuesto a variaciones de precio y disponibilidad que no controlas. Evalúa alternativas como Together AI, Replicate, Mistral API o modelos locales con Ollama para tareas que no requieran los modelos más grandes.

Si eres un estudio o agencia, empieza a calcular tu coste real por token y por imagen generada. Los precios van a fluctuar más, no menos, en los próximos 18 meses. Tener benchmarks propios sobre qué modelos te dan el mejor ratio calidad/coste para cada tipo de trabajo —generación de assets, upscaling, vídeo, copywriting técnico— es una ventaja competitiva concreta, no un ejercicio académico.

La infraestructura de IA es geopolítica ahora. Los que entienden dónde se procesan los datos, quién controla los chips y qué depende de qué toman mejores decisiones de negocio. Empieza hoy.