Mientras la Casa Blanca anuncia cifras de inversión en infraestructura de IA que suenan a ciencia ficción —500.000 millones de dólares bajo el proyecto Stargate— la realidad en el suelo es mucho más sucia. Los centros de datos no se construyen con decretos. Se construyen con electricidad, agua, chips y tiempo. Y en los cuatro frentes que importan, el plan está fallando en silencio. Si trabajas en IA, si desarrollas con modelos de lenguaje o si tu negocio depende de la disponibilidad de compute, esto te afecta directamente ahora mismo.

El problema que Trump no puede solucionar con un tweet: la energía

Un centro de datos de hiperescala para cargas de trabajo de IA consume entre 100 y 500 megavatios. Para que te hagas una idea: eso es suficiente para alimentar ciudades enteras. El problema no es la ambición del proyecto. El problema es que la red eléctrica de Estados Unidos lleva décadas sin recibir la inversión que necesita, y conectar nuevas instalaciones masivas a esa red puede tardar entre 5 y 10 años en algunos estados.

Microsoft, Google y Amazon lo saben. Por eso están firmando contratos con plantas nucleares —Three Mile Island en el caso de Microsoft, con un acuerdo de 20 años para reactivarla— o explorando reactores modulares pequeños (SMRs). Pero estos proyectos no están operativos hoy. Están en papel. La administración Trump está apostando por quemar más carbón y gas como solución a corto plazo, pero eso no resuelve la infraestructura de transmisión ni los cuellos de botella en la última milla eléctrica.

Resultado concreto: proyectos anunciados como el campus de Oracle en Texas o las expansiones de Meta en Louisiana están encontrando retrasos de entre 18 y 36 meses solo en permisos de conexión eléctrica.

Los chips siguen siendo el cuello de botella que nadie quiere admitir

La retórica oficial habla de soberanía tecnológica y de traer la manufactura de semiconductores de vuelta a suelo americano. TSMC está construyendo en Arizona. Intel tiene planes en Ohio. Pero la realidad es que fabricar chips de última generación en EE.UU. cuesta entre un 30% y un 50% más que hacerlo en Taiwán, según análisis del Boston Consulting Group. Y los nodos más avanzados —3nm, 2nm— no estarán disponibles en plantas americanas hasta 2027 o 2028, en el mejor escenario.

Mientras tanto, las restricciones a la exportación de GPUs H100 y H200 de Nvidia a China han creado un mercado gris activo y han acelerado el desarrollo de alternativas chinas como el Huawei Ascend 910B. La escasez no desapareció: se redistribuyó. OpenAI, Anthropic y los laboratorios que compiten con ellos siguen en lista de espera para acceder a clusters de compute suficientes para entrenar modelos de siguiente generación.

«No puedes decretar que los chips existan. Puedes decretar aranceles, pero eso solo sube el precio del compute para todos.»

El agua y el talento: los recursos invisibles que colapsan primero

Hay dos recursos que raramente aparecen en los titulares pero que están limitando físicamente la expansión de centros de datos en EE.UU.: el agua y el talento humano especializado.

Los sistemas de refrigeración de un centro de datos de gran escala pueden consumir millones de litros de agua al día. En estados como Arizona, Nevada o Texas —donde se concentran muchos de los proyectos anunciados— el agua ya es un recurso en disputa legal entre municipios, agricultores y empresas tecnológicas. Phoenix, por ejemplo, ha comenzado a limitar permisos de construcción vinculados al consumo hídrico. Algunos operadores están explorando refrigeración líquida directa al chip (Direct Liquid Cooling) para reducir la dependencia del agua, pero la adopción masiva todavía está en fases tempranas.

En cuanto al talento: construir y operar infraestructura de IA a esta escala requiere ingenieros de sistemas, especialistas en redes de alta velocidad, expertos en refrigeración de precisión y arquitectos de hardware que sencillamente no existen en el número que se necesita. Las universidades americanas no forman suficientes perfiles técnicos en estas especialidades, y las restricciones migratorias que impulsa la misma administración Trump dificultan importar ese talento desde fuera.

Lo que esto significa para tu trabajo con IA hoy

Si usas APIs de OpenAI, Anthropic, Google o Mistral para producción, para generación de imágenes, para pipelines automatizados —esto no es un problema lejano. La escasez de infraestructura se traduce en latencias más altas, en precios de compute que no van a bajar tan rápido como el mercado prometía, y en posibles interrupciones de servicio en momentos pico.

La acción concreta que puedes tomar hoy: diversifica tus dependencias de compute. No te cases con un solo proveedor. Evalúa alternativas como Together AI, Groq, Fireworks AI o Replicate para cargas de trabajo específicas. Si usas imágenes, compara latencia y coste entre Midjourney, Flux en Replicate y las APIs de Stability AI esta semana. Configura alertas de status en tus proveedores principales. Y si tienes capacidad técnica, empieza a explorar modelos que puedas correr localmente —Llama 3, Mistral 7B, Phi-3— para reducir tu exposición a interrupciones de infraestructura que están fuera de tu control. El compute es geopolítica ahora. Trátalo como tal.