La inteligencia artificial ha convertido la energía en el nuevo cuello de botella tecnológico. Y ante ese límite, algunas de las mayores empresas del mundo han comenzado a mirar hacia arriba. Por poner algunos ejemplos, Jeff Bezos ha hablado de "clústeres gigantes de IA orbitando el planeta" en una o dos décadas. Google ha experimentado con ejecutar cálculos de inteligencia artificial en satélites alimentados por energía solar. Nvidia respalda startups que quieren lanzar GPUs al espacio. Incluso OpenAI ha tanteado la compra de una empresa de cohetes para asegurarse un camino propio fuera de la Tierra.
La promesa es seductora: centros de datos solares funcionando sin descanso, sin redes eléctricas ni torres de refrigeración. El problema es que, cuando se pasa del relato a la física, la ingeniería y los números, la idea empieza a resquebrajarse.
Centros de datos en el espacio. Hay una pregunta que orbita en este asunto: ¿por qué las tecnológicas quieren enviar centros de datos al espacio? La motivación a simple vista es clara. Según datos de la Agencia Internacional de la Energía, el consumo eléctrico de los centros de datos podría duplicarse antes de 2030, impulsado por la explosión de la IA generativa. Entrenar y ejecutar modelos como ChatGPT, Gemini o Claude requiere cantidades masivas de electricidad y enormes volúmenes de agua para refrigeración. En muchos lugares, estos proyectos ya se topan con la oposición local o con límites físicos de la red.
En este contexto, el espacio aparece como una solución tentadora. En determinadas órbitas, los paneles solares pueden recibir luz casi constante, sin nubes ni ciclos nocturnos. Además, como explican Bezos y otros defensores, el vacío espacial parece ofrecer un entorno ideal para disipar calor sin recurrir a torres de refrigeración ni a millones de litros de agua dulce. Según este argumento, los centros de datos espaciales serían más eficientes, más sostenibles y, con el tiempo, incluso más baratos que los terrestres. Para algunos ejecutivos, no sería una excentricidad, sino la "evolución natural" de una infraestructura que ya empezó con los satélites de comunicaciones.
Cuando los ingenieros levantan la mano. Frente al entusiasmo de los comunicados corporativos, varios expertos en ingeniería espacial han sido mucho más contundentes. En uno de los textos más citados sobre el tema, un exingeniero de la NASA con doctorado en electrónica espacial y experiencia directa en infraestructura de IA en Google resume su posición sin rodeos: "Esta es una idea terrible y no tiene ningún sentido".
Su crítica no es ideológica, sino técnica. Y empieza por el primer gran mito, la supuesta abundancia de energía en el espacio.
La energía solar no es magia. El mayor sistema solar jamás desplegado fuera de la Tierra es el de la Estación Espacial Internacional. Según datos de la NASA, sus paneles cubren unos 2.500 metros cuadrados y, en condiciones ideales, generan entre 84 y 120 kilovatios de potencia, de los cuales una parte se destina a cargar baterías para los periodos en sombra. Para ponerlo en contexto, una sola GPU moderna para IA consume del orden de 700 vatios, y en la práctica alrededor de 1 kilovatio cuando se tienen en cuenta pérdidas y sistemas auxiliares. Con esas cifras, una infraestructura del tamaño de la ISS apenas podría alimentar unas pocas centenas de GPU.
Como explica este ingeniero, un centro de datos moderno puede albergar decenas o cientos de miles de GPU. Igualar esa capacidad requeriría lanzar cientos de estructuras del tamaño —y la complejidad— de la Estación Espacial Internacional. Y aun así, cada una equivaldría apenas a unos pocos racks de servidores terrestres. Además, la alternativa nuclear tampoco resuelve el problema ya que los generadores nucleares utilizados en el espacio, los RTG, producen entre 50 y 150 vatios. En otras palabras, ni siquiera lo suficiente para alimentar una sola GPU.
El espacio no es un frigorífico. El segundo gran argumento en contra de los centros de datos orbitales es la refrigeración. Se repite con frecuencia que el espacio es frío, y que eso facilitaría disipar el calor de los servidores. Según los ingenieros, esta es una de las ideas más engañosas de todo el debate.
En la Tierra, la refrigeración se basa en la convección: el aire o el agua se llevan el calor. En el vacío del espacio, la convección no existe. Todo el calor debe eliminarse mediante radiación, un proceso mucho menos eficiente y que exige superficies enormes. La propia NASA ofrece un ejemplo contundente, el sistema de control térmico activo de la Estación Espacial Internacional. Se trata de una red extremadamente compleja de circuitos de amoníaco, bombas, intercambiadores y radiadores gigantes. Y aun así, su capacidad de disipación está en el orden de decenas de kilovatios. Según los cálculos del ingeniero citado, refrigerar el calor generado por GPUs de alto rendimiento en el espacio requeriría radiadores todavía mayores que los paneles solares que las alimentan. El resultado sería un satélite colosal, más grande y complejo que la ISS, para realizar una tarea que en la Tierra se resuelve con mucha más sencillez.
Y hay un tercer factor: la radiación. En órbita, la electrónica está expuesta a partículas cargadas que pueden provocar errores de bits, reinicios inesperados o daños permanentes en los chips. Aunque algunas pruebas, como las realizadas por Google con sus TPUs, muestran que ciertos componentes pueden resistir dosis elevadas, los fallos no desaparecen, solo se multiplican.
Blindar los sistemas reduce el riesgo, pero añade masa. Y cada kilo extra incrementa el coste del lanzamiento. Además, el hardware de IA tiene una vida útil muy corta, ya que en pocos años queda obsoleto. En la Tierra se sustituye; en el espacio, no. Como señalan los críticos, un centro de datos orbital tendría que funcionar durante muchos años para amortizar su coste, pero lo haría con hardware que se queda atrás mucho antes.
Entonces, ¿por qué siguen insistiendo? La respuesta parece estar menos en la ingeniería actual y más en la estrategia a largo plazo. Todos estos proyectos dependen de la condición que los costes de lanzamiento caigan de forma drástica. Algunas estimaciones, hablan de umbrales de unos 200 dólares por kilo para que los centros de datos espaciales puedan competir económicamente con los terrestres. Ese escenario se apoya en cohetes totalmente reutilizables como Starship, que todavía no han demostrado esa capacidad a escala operativa. Mientras tanto, las energías renovables terrestres siguen abaratándose, y los sistemas de almacenamiento mejoran año tras año.
Además, el relato del espacio cumple otra función porque posiciona a estas empresas como visionarias, atrae inversión y refuerza la idea de que el futuro pasa inevitablemente por ellas. Como ocurre con la energía solar espacial, una promesa que lleva décadas reapareciendo cada cierto tiempo, la viabilidad siempre se sitúa "a 20 años vista".
Una idea muy buena sobre el papel. Nada de esto significa que no pueda haber usos puntuales de la computación en órbita: experimentos, aplicaciones militares o tareas muy concretas. Pero, como coinciden las fuentes técnicas y los propios números de la NASA, pensar que el grueso de la infraestructura de la IA mundial acabará flotando alrededor de la Tierra es, hoy por hoy, más un ejercicio de imaginación que una solución realista.
Tal vez el mayor interrogante no sea si podemos llevar los centros de datos al espacio, sino por qué resulta más atractivo fantasear con ello que afrontar los límites energéticos aquí abajo. Porque, al final, la inteligencia artificial puede mirar al cielo todo lo que quiera, pero sigue dependiendo de leyes físicas que no entienden de relatos inspiradores.
-
La noticia Un exingeniero de la NASA lo tiene claro: los centros de datos en el espacio son una idea horrible fue publicada originalmente en Xataka por Alba Otero .
☞ El artículo completo original de Alba Otero lo puedes ver aquí