
Elon Musk ha vuelto a poner el foco en la infraestructura física detrás de la inteligencia artificial. Según contó en una publicación en X a finales de diciembre, xAI ha adquirido un tercer edificio —al que llamó “MACROHARDRR”— para ampliar la capacidad de su supercomputadora Colossus. La idea es sencilla de enunciar y difícil de ejecutar: sumar más espacio para convertirlo en centro de datos y aumentar la potencia de entrenamiento de modelos de IA.
Medios como The Information sitúan esta nueva compra en forma de gran almacén en las afueras de Memphis, cerca de Southaven (Mississippi), con planes de reconversión durante 2026. La instalación serviría como apoyo tanto del complejo actual de Memphis como del sitio de Colossus 2, que aún está en construcción. La lectura entre líneas es clara: xAI está intentando ganar tiempo y músculo computacional a la vez, escalando en paralelo edificios, chips y energía.
Del “cluster” de GPUs al objetivo del millón: cuando la IA se mide en ladrillos y silicio
En el imaginario popular, entrenar una IA parece algo etéreo, como si ocurriera “en la nube” sin gravedad ni fricción. La realidad se parece más a montar una fábrica: necesitas naves, cableado, refrigeración, subestaciones eléctricas y una logística milimétrica. En ese contexto encaja el dato más ambicioso: xAI planea llevar Colossus a albergar al menos un millón de GPUs, un volumen que coloca el proyecto entre los mayores esfuerzos de entrenamiento de IA del mundo.
Musk ya había apuntado que Colossus 2 por sí sola podría alojar alrededor de 550.000 chips de Nvidia, con costes que se irían a decenas de miles de millones de dólares. Es el tipo de cifra que se entiende mejor con una metáfora cotidiana: no hablamos de “comprar un ordenador potente”, sino de llenar varios estadios con ordenadores especializados que trabajan a la vez, día y noche, para aprender patrones a partir de cantidades gigantescas de datos.
Qué significa “casi 2 GW”: la electricidad como nuevo cuello de botella
El titular que más impresiona no es el del tercer edificio, sino el de la potencia: xAI se acercaría a 2 GW de capacidad de cómputo. Dos gigavatios no son un detalle técnico; es un orden de magnitud que cambia las conversaciones. Musk lo comparó con el consumo equivalente al de alrededor de 1,5 millones de hogares estadounidenses. Aunque estas equivalencias siempre simplifican, sirven para ubicar la escala: estamos ante una instalación que, por demanda energética, se comporta como una gran pieza de infraestructura industrial.
Para imaginarlo, piensa en una cocina donde decides poner cien hornos a máxima potencia y mantenerlos encendidos sin pausa. El problema deja de ser “si el horno calienta bien” y pasa a ser si tu casa soporta la instalación eléctrica, si puedes evacuar el calor y cuánto te costará la factura. Con la IA ocurre lo mismo: los modelos se entrenan con GPUs que consumen mucha energía y convierten una parte relevante en calor, lo que obliga a invertir tanto en electricidad como en refrigeración.
La estrategia energética: planta de gas y turbinas bajo la lupa
Cuando un centro de datos crece a este ritmo, la red eléctrica local se convierte en un tablero de negociación. Según The Information, xAI está desarrollando su propia infraestructura energética, incluyendo una planta de gas natural cerca de los sitios de Colossus, junto con acceso a otras fuentes de energía. Es una forma de reducir dependencia de la red y asegurar suministro estable, algo crítico cuando cada interrupción significa perder horas de entrenamiento y dinero.
Ese enfoque, sin embargo, ha encendido alarmas. Una investigación de Tennessee Lookout publicada en julio de 2025 señaló que la instalación operaba 33 turbinas de gas alimentadas por metano a pesar de contar con permisos para 15 en ese momento. El mismo reportaje situaba el centro en una comunidad de Memphis mayoritariamente negra y de bajos ingresos, con un historial de enfermedades asociadas a contaminación. En el plano político local, el representante estatal Justin J. Pearson advirtió que las emisiones podrían elevar el smog entre un 30% y un 60%, citando contaminantes como óxidos de nitrógeno y formaldehído, vinculados a problemas respiratorios y cardiovasculares.
Aquí aparece una tensión que se repite en distintos lugares del mundo: la carrera por la capacidad de cómputo empuja a construir deprisa, mientras las comunidades piden garantías, permisos claros y mediciones transparentes. Si la IA es el “cerebro”, la energía es el “sistema circulatorio”, y cualquier atajo en ese sistema termina afectando al cuerpo entero.
Agua, refrigeración y el lado menos visible del entrenamiento de modelos
La conversación pública suele quedarse en los chips, pero hay otro recurso clave: el agua. En centros de datos masivos, la refrigeración es tan determinante como la electricidad, y no siempre se resuelve con aire. xAI, consciente del impacto, ha reconocido el tamaño de su huella ambiental y está impulsando medidas de mitigación. Entre ellas figura un centro de tratamiento de aguas residuales valorado en 80 millones de dólares para reutilizar aproximadamente 13 millones de galones diarios, reduciendo la dependencia del agua potable local destinada a enfriar equipos.
Es un paso relevante porque la refrigeración se parece al radiador de un coche: por muy buen motor que tengas, si no evacuas el calor, todo se detiene. En el caso de la IA, el “motor” son miles y miles de GPUs; el “radiador” es una infraestructura que puede consumir agua y energía en volúmenes enormes. La reutilización ayuda, aunque no elimina otras preocupaciones, sobre todo si la expansión continúa al ritmo anunciado.
Coste, sostenibilidad y confianza: el triángulo difícil de equilibrar
El crecimiento acelerado de xAI busca competir de tú a tú con desarrolladores consolidados como OpenAI y Anthropic. Su chatbot Grok, integrado en X, se beneficia de acceso a información en tiempo real y de la visibilidad de una plataforma social global. Para sostener ese impulso, xAI apuesta por un enfoque que prioriza control directo del hardware y de la energía, algo que recuerda a quienes construyen su propia carretera para que los camiones no dependan del tráfico de la autopista.
El problema es que construir “tu propia carretera” también significa asumir impactos que, de otro modo, quedarían repartidos. Por eso el debate no gira solo en torno a si la tecnología funciona, sino a quién paga el precio local del progreso: ruido, emisiones, presión sobre servicios, cambios en el uso del suelo y dudas sobre permisos. Activistas y residentes de Memphis y Southaven han cuestionado que un desarrollo de IA a escala multi-gigavatio pueda intensificar cargas ambientales ya existentes, especialmente cuando la expansión se anuncia poco después de investigaciones críticas.
Lo que conviene seguir en 2026: permisos, datos públicos y energía real
Con la conversión del nuevo edificio en marcha durante 2026, el termómetro de este caso será menos “cuántas GPUs llegan” y más “qué tan transparente es el proceso”. En proyectos de esta dimensión, la confianza se construye con cifras verificables: consumo eléctrico medido, emisiones reportadas, permisos en regla, auditorías, planes de contingencia y compromisos claros con la comunidad. La IA puede sentirse intangible, pero su infraestructura es tan concreta como una fábrica: ocupa espacio, demanda recursos y deja huella.
Si Colossus termina acercándose a los 2 GW, estaremos ante un ejemplo extremo de cómo la inteligencia artificial está empujando límites físicos: los de la red eléctrica, los del agua, los de la capacidad industrial para fabricar y desplegar chips, los de la gobernanza local para supervisar impactos. La pregunta de fondo no es si estos centros se van a construir, sino cómo se harán, con qué energía, con qué controles y con qué beneficios compartidos.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí
