Mientras la Casa Blanca anuncia con fanfarria la construcción de centros de datos de IA por valor de 500.000 millones de dólares —el llamado proyecto Stargate—, los ingenieros, analistas y operadores sobre el terreno están viendo algo completamente diferente: cuellos de botella estructurales que ningún decreto ejecutivo puede resolver. Si trabajas con IA generativa, si tu negocio depende de la disponibilidad de cómputo, o si simplemente intentas entender hacia dónde va la infraestructura tecnológica global, esto te afecta directamente ahora mismo. No dentro de cinco años. Ahora.
El problema que Trump no menciona: la electricidad no aparece por decreto
Construir un centro de datos de escala hyperscale no es un problema de capital. Es un problema de infraestructura física que lleva décadas sin actualizarse. Estados Unidos tiene una red eléctrica envejecida, fragmentada en más de 3.000 utilities distintas, y con una capacidad de expansión que los propios operadores de red estiman en 7 a 10 años de media para aprobar y conectar nuevas subestaciones de alta tensión.
El proyecto Stargate, liderado por OpenAI, SoftBank y Oracle, necesita del orden de 5 gigavatios de potencia eléctrica para la primera fase. Para contextualizar: eso equivale a aproximadamente el consumo eléctrico de toda la ciudad de Los Ángeles en hora punta. No existe ningún mecanismo ejecutivo que acelere la aprobación de líneas de transmisión que cruzan múltiples jurisdicciones estatales. La FERC —la agencia federal reguladora de energía— opera con sus propios tiempos, y esos tiempos no los marca ningún presidente.
Microsoft ya lo ha experimentado en carne propia: en 2024 tuvo que cancelar o pausar contratos de arrendamiento de data centers por valor de cientos de millones de dólares en Ohio y Wisconsin, precisamente por incapacidad de garantizar suministro eléctrico suficiente. Google enfrenta el mismo muro en Virginia, el hub de datos más denso del mundo. El problema no es ideológico. Es físico.
Chips, agua y mano de obra: la trinidad que nadie quiere calcular
Incluso asumiendo que el suministro eléctrico se resuelva —hipótesis generosa—, quedan tres variables que el discurso político ignora sistemáticamente.
Chips: Los centros de datos de IA funcionan sobre GPUs de NVIDIA, principalmente la arquitectura Hopper (H100, H200) y la nueva Blackwell (B200, GB200). NVIDIA fabrica sus chips en TSMC, en Taiwán. El plan de construir fábricas de semiconductores en suelo americano —TSMC Arizona, Intel Foundry, Samsung Texas— lleva años de retraso y enfrenta escasez crónica de técnicos especializados. La planta de TSMC en Arizona, tras retrasos sucesivos, no alcanzará producción de chips de 2nm hasta 2028 como pronto. Mientras tanto, los H100 siguen llegando desde Asia.
Agua: Los sistemas de refrigeración de un data center de 100 MW consumen entre 1 y 3 millones de litros de agua al día. Texas, uno de los estados elegidos para Stargate, sufre sequías cíclicas y tensiones crecientes sobre sus acuíferos. Google y Meta ya han recibido presión regulatoria local en múltiples estados por su consumo hídrico. Ningún decreto federal soluciona la hidrología.
Mano de obra especializada: Un data center de escala requiere ingenieros de infraestructura, técnicos de alta tensión, especialistas en cooling y personal de seguridad física. Estados Unidos tiene un déficit estimado de más de 300.000 profesionales técnicos en este sector, según análisis de Uptime Institute. Y la política migratoria restrictiva de la actual administración está dificultando, no facilitando, la importación de talento especializado.
Lo que sí está funcionando: el modelo distribuido y soberano
Mientras el megaproyecto centralizado enfrenta sus obstáculos estructurales, otro modelo avanza con menos ruido y más resultados: la infraestructura de IA distribuida y la soberanía computacional regional.
Europa, paradójicamente, está tomando ventaja en algunos vectores clave. Países como Suecia, Noruega e Islandia están atrayendo centros de datos de IA gracias a energía renovable abundante, clima frío que reduce costes de refrigeración y marcos regulatorios estables. En España, proyectos como el de Green Data Center en Aragón combinan energía solar con refrigeración evaporativa eficiente.
En el plano del software y la inferencia distribuida, herramientas como Ollama permiten correr modelos como Llama 3.1, Mistral o Phi-3 localmente, reduciendo dependencia de APIs centralizadas. Plataformas como Together AI, Groq o Cerebras ofrecen inferencia a escala con arquitecturas de chip alternativas —Groq con sus LPUs alcanza velocidades de más de 800 tokens por segundo en Llama 3 70B, comparado con los 50-80 tokens por segundo típicos de las APIs estándar.
La descentralización no es un plan B. Para muchos workflows de producción, ya es el plan A.
Qué puedes hacer tú hoy con esta información
La inestabilidad de la infraestructura centralizada de IA no es una noticia que leer y olvidar. Es una señal operativa. Si dependes de APIs de OpenAI, Anthropic o Google para producción, diversifica tu stack ahora: implementa un sistema de fallback con al menos dos proveedores. Herramientas como LiteLLM te permiten hacer esto con una sola línea de configuración, enrutando automáticamente entre OpenAI, Anthropic, Groq, Mistral o modelos locales según disponibilidad y coste.
Evalúa si parte de tu carga de inferencia puede moverse a modelos locales con Ollama o LM Studio. Un Mac con M3 Max corre Llama 3.1 8B a velocidad utilisable, sin latencia de red, sin coste por token y sin dependencia de centros de datos que compiten por megavatios que no existen. En Renderz Studio ya hemos migrado el 40% de nuestros flujos de prototipado a inferencia local. El resultado: menor coste, menor latencia, mayor control.
El futuro de la IA no lo construye ningún gobierno con un anuncio de 500.000 millones. Lo construyen los equipos que entienden la infraestructura real y toman decisiones técnicas inteligentes antes de que el resto del mercado se dé cuenta del problema.