Mientras la Casa Blanca celebra anuncios de billones en infraestructura de IA, la realidad sobre el terreno es otra. Los data centers prometidos no se construyen al ritmo que se vende, y los motivos van mucho más allá de la política o el presupuesto. Si trabajas con IA generativa, tienes clientes que dependen de compute en la nube o estás pensando en escalar operaciones de rendering y modelo, esto te afecta directamente ahora mismo. La narrativa oficial está desconectada de los cuellos de botella reales, y eso crea tanto riesgos como oportunidades para quienes saben leerlo.

El problema no es el dinero: es lo que el dinero no puede comprar rápido

Trump ha prometido más de 500.000 millones de dólares en inversión en infraestructura de IA a través de iniciativas como Stargate, el consorcio formado por OpenAI, SoftBank y Oracle. El número es espectacular. El problema es que construir un data center de alta densidad para cargas de trabajo de IA no es como construir un almacén logístico. Hay tres factores que el anuncio ignora sistemáticamente:

  • Electricidad: Un data center moderno para entrenamiento de modelos como GPT-4 o Gemini Ultra consume entre 50 y 150 megavatios. Conseguir esa capacidad eléctrica en zonas donde hay terreno barato puede tardar de 3 a 7 años por los procesos de aprobación de red. No hay atajo ejecutivo para esto.
  • Hardware: Las GPUs H100 y H200 de NVIDIA siguen con listas de espera de 6 a 12 meses para pedidos masivos. Las restricciones de exportación que el propio gobierno estadounidense ha impuesto complican la cadena de suministro global, afectando incluso a fabricantes domésticos.
  • Talento técnico: Diseñar, operar y mantener infraestructura de IA a escala requiere ingenieros de sistemas distribuidos, expertos en cooling líquido y arquitectos de red que simplemente no existen en cantidad suficiente. No se forman en 18 meses.

El resultado es que proyectos anunciados en enero de 2025 ya muestran retrasos de entre 18 y 36 meses en fases iniciales. Oracle ha reconocido públicamente dificultades para asegurar suministro eléctrico estable en varios de sus sitios propuestos en Texas y Arizona.

Las contradicciones internas que sabotean el plan

Aquí es donde la política se convierte en un obstáculo técnico real. La administración Trump ha tomado decisiones que van directamente en contra de sus propios objetivos de liderazgo en IA:

Aranceles sobre equipamiento tecnológico. Las tarifas impuestas sobre importaciones chinas —y las represalias consiguientes— encarecen componentes críticos como memoria HBM, sistemas de refrigeración y hardware de networking. TSMC fabrica en Taiwán. Samsung en Corea. Los chips que alimentan los data centers americanos no son americanos en su cadena de producción. Gravar esas importaciones sube el coste por rack entre un 15 y un 30% según estimaciones del sector.

Recortes en I+D federal. Mientras se anuncia inversión privada, se han reducido fondos para el National Science Foundation y programas de investigación en computación avanzada del Departamento de Energía. La investigación básica que produce los avances en eficiencia energética para chips y arquitecturas de cooling no se financia sola. Sin ella, la dependencia de NVIDIA y el duopolio de arquitecturas actuales se prolonga.

Visados y talento internacional. Las restricciones migratorias afectan directamente a la disponibilidad de ingenieros especializados. Silicon Valley y las grandes cloud providers han construido sus equipos técnicos con un porcentaje altísimo de talento internacional. Cerrar ese grifo mientras se intenta construir la mayor infraestructura tecnológica de la historia es una contradicción operativa de primer orden.

La promesa política de liderazgo en IA choca con las decisiones regulatorias y arancelarias que lo hacen estructuralmente más difícil. No es negligencia. Es la consecuencia de gobernar con titulares en lugar de con ingeniería.

Qué significa esto para estudios, creadores y negocios que usan IA hoy

Si dependes de APIs de OpenAI, Anthropic, Google o Stability AI para tu trabajo, la inestabilidad de la infraestructura subyacente tiene consecuencias concretas. Los retrasos en expansión de capacidad se traducen en:

  • Precios de API que no bajan al ritmo esperado. La competencia prometida por más data centers no está llegando tan rápido.
  • Latencia y disponibilidad más volátiles en horas pico, especialmente para cargas de trabajo de imagen y vídeo generativo que son compute-intensivas.
  • Menor presión competitiva sobre NVIDIA, lo que significa que los precios de H100 en cloud —que en AWS rondan los 32 dólares por hora para instancias p4d— no van a desplomarse este año.

Para estudios como el nuestro, esto refuerza una estrategia que ya estamos ejecutando: diversificación de proveedores de compute, combinando AWS, Replicate, RunPod y capacidad propia para renderizado. No puedes depender de un solo ecosistema cuando ese ecosistema depende de una infraestructura con cuellos de botella estructurales.

También abre una ventana. Europa —y específicamente el corredor Madrid-Barcelona-Lisboa— está atrayendo inversión en data centers con energía renovable, marcos regulatorios estables y acceso a talento técnico europeo. Amazon, Microsoft y Google están expandiendo capacidad en España activamente. La concentración del problema en territorio americano es, paradójicamente, una ventaja competitiva para operaciones basadas aquí.

La acción concreta que puedes tomar hoy

Audita tu stack de herramientas de IA y mapea tu dependencia de infraestructura americana. Si el 80% de tu compute pasa por un solo proveedor cloud con servidores en US East o US West, tienes un riesgo de disponibilidad y precio que no está reflejado en tu planificación de costes. Hoy mismo puedes abrir una cuenta en RunPod o Vast.ai para tener una alternativa de GPU compute lista. Evalúa Replicate para inferencia de modelos de imagen con precios por segundo real. Y si estás escalando operaciones, pide presupuesto a proveedores con capacidad en regiones europeas: la infraestructura más estable para los próximos 24 meses no va a estar en Texas. Va a estar aquí.