25 de diciembre de 2025

En 1995, un ingeniero pasó diez días escribiendo código: 30 años después es el pegamento que mantiene viva internet

En 1995, un ingeniero pasó diez días escribiendo código: 30 años después es el pegamento que mantiene viva internet

Hace tres décadas, un comunicado conjunto de Netscape y Sun Microsystems presentaba al mundo JavaScript, un lenguaje de scripting diseñado para crear aplicaciones web interactivas. Detrás de esa nota de prensa se escondía una historia de supervivencia tecnológica: dicho lenguaje había nacido meses antes, fruto de un sprint frenético de diez días protagonizado por el ingeniero Brendan Eich. Lo que comenzó como un prototipo apresurado para dotar de vida al navegador Netscape, se ha convertido hoy en la infraestructura que sostiene un enorme porcentaje de la web visible.

El mito de los diez días. La leyenda cuenta que Eich escribió el núcleo de JavaScript en poco más de una semana. Y es cierto, pero el resultado fue un híbrido de influencias. Presionado por la dirección de Netscape para que el lenguaje se pareciese a Java, Eich adoptó una sintaxis de llaves y puntos y coma.

Sin embargo, bajo el capó, inyectó la elegancia funcional de Scheme y el modelo de objetos basado en prototipos de Self. Esta mezcla nacida de las prisas, dejó un legado de inconsistencias técnicas que los desarrolladores siguen sufriendo (y amando) hoy en día.

De Mocha a la confusión. Quizá no sepas que el lenguaje no siempre se llamó así. Nació como Mocha, pasó a ser LiveScript y finalmente se bautizó como JavaScript en una maniobra de marketing para aprovechar el tirón de Java. Es más, la confusión por los nombres dura hasta hoy entre los usuarios menos entendidos: pero Java y JavaScript tienen lo mismo que ver que car (coche) y carpet (alfombra), como se suele responder cuando alguien pregunta por sus diferencias.

La estrategia funcionó, pero enfureció a rivales como Microsoft. Su respuesta fue crear su propia versión bautizada como JScript, algo que provocó una notable fragmentación que hizo que el propio Bill Gates se quejara de los constantes cambios de Netscape. Para poner orden en el caos, el lenguaje se terminó asentando en 1997 bajo el nombre de ECMAScript.

Javascript guide Imagen de Claudio Schwarz en Unsplash

Ajax y la conquista del servidor. Durante años, JavaScript fue visto como un juguete para hacer validaciones simples, pero todo cambió en 2005 con la llegada de AJAX. Esta tecnología permitió que webs como Gmail o Maps actualizaran datos sin recargar la página: se dio el paso de las webs estáticas a las apps dinámicas.

El segundo salto ocurrió en 2009 con Node.js, que sacó a JavaScript del navegador y lo llevó al servidor. Clave para que los desarrolladores usaran un solo lenguaje para todo el stack y que ahora implica entre dos y tres millones de paquetes en el registro npm.

Dominio absoluto. A pesar de la aparición de rivales modernos, la hegemonía de JavaScript es indiscutible. Según la encuesta de Stack Overflow de 2025, sigue siendo el lenguaje más usado por el 62% de los desarrolladores, algo que les coloca por delante de otros como Python o SQL. 

Su ubicuidad es tal que ha trascendido la web: impulsa apps de escritorio mediante Electron, desarrollo móvil con React Native e incluso herramientas de IA. Es el lenguaje por defecto para aprender a programar y elegido por el 60% de los alumnos.

Este éxito de masas ha traído consigo una complejidad en el ecosistema de JavaScript:

  • Frameworks como React, Angular y Vue dominan el mercado (usado por el 40% de los desarrolladores web).
  • El peso de las librerías está empezando a pasar factura al rendimiento de la web.
  • Por ello, las predicciones para 2026 apuntan a un resurgir del JavaScript puro o Vanilla JavaScript.

Madurez forzosa. A pesar de sus defectos de nacimiento, JavaScript supo evolucionar. En 2015, la actualización ES6 transformó radicalmente la sintaxis, pero el verdadero cambio de paradigma vino de la mano de Microsoft: con la creación de TypeScript, se añadió una capa de seguridad y tipos que solucionó gran parte del caos original, algo que le permitió convertirse en el estándar casi obligatorio para el desarrollo profesional. JavaScript sigue siendo el motor, pero TypeScript es el volante de precisión.

Un problema legal llamado Oracle. La paradoja de JavaScript es que, a pesar de ser un estándar abierto, su nombre es propiedad privada. Oracle heredó la marca registrada «JavaScript» tras comprar Sun Microsystems, aunque nunca ha lanzado un producto con ese nombre. Recientemente, figuras claves como el propio Brendan Eich y el creador de Node.js han firmado una petición para que la oficina de patentes de EEUU cancele la marca por abandono.

El legado de un "hack". Es irónico que las compañía que apadrinaron su nacimiento hayan desaparecido o sido absorbidas, mientras que su creación sigue más viva que nunca. Voces autorizadas como Douglas Crockford (creador de JSON) han llegado a sugerir que deberían "retirarlo" por sus fallos de diseño base, pero la realidad es que la web moderna no existiría sin él.

JavaScript no es solo código; es el idioma franco de internet, el pegamento invisible que convierte documentos estáticos en experiencias digitales. Sin su existencia, la red solo sería una colección de textos e imágenes sin movimiento, algo similar a un periódico en PDF que vemos en nuestra pantalla.

En Xataka | Hay un gigante en la sombra moviendo todos los hilos tecnológicos que conectan a TikTok con la IA: Oracle

-
La noticia En 1995, un ingeniero pasó diez días escribiendo código: 30 años después es el pegamento que mantiene viva internet fue publicada originalmente en Xataka por Pepu Ricca .



☞ El artículo completo original de Pepu Ricca lo puedes ver aquí

Hay una obsesión por la proteína para ganar más y más músculo. La ciencia cada vez tiene más dudas de que funcione

Hay una obsesión por la proteína para ganar más y más músculo. La ciencia cada vez tiene más dudas de que funcione

Hasta hace no tanto, la proteína era un término técnico, ligado a la nutrición clínica y al deporte. Hoy se ha convertido en un símbolo cultural. Bajo lo que algunos han llamado la era del Protein Chic, la proteína ya no es solo un nutriente, sino una promesa: de salud, de control del cuerpo y de envejecimiento activo. Comer bien ha pasado a significar, casi automáticamente, comer “con proteína”.

El mercado empuja. Este cambio ha consolidado una idea tan sencilla como engañosa: que si la proteína es buena, cuanta más, mejor. Sin embargo, mientras el mercado empuja esta lógica sin matices, el cuerpo humano sigue funcionando con límites muy concretos. Y ahí aparece la pregunta que rara vez acompaña a los envases y eslóganes: ¿cuánta proteína necesitamos realmente para envejecer bien, y a partir de qué punto deja de sumar?

¿Qué dice realmente la ciencia? Aquí es donde el ruido del marketing choca con la evidencia. En un extenso reportaje publicado por The Washington Post, el profesor Stuart Phillips, investigador de referencia en metabolismo proteico, salud muscular y envejecimiento en la Universidad McMaster (Canadá), lanza una advertencia clara: "Consumir cada vez más proteína no es necesariamente mejor. No hay beneficios infinitos asociados a una mayor ingesta".

Phillips no es una voz marginal en este debate. Lleva décadas estudiando cómo la nutrición y el ejercicio interactúan para frenar la pérdida de masa muscular asociada a la edad —la sarcopenia— y es uno de los científicos más citados en este campo. Su mensaje desmonta buena parte de la narrativa dominante.

Entonces, vamos a los datos. La recomendación clásica de 0,8 gramos de proteína por kilo de peso corporal —la conocida ingesta diaria recomendada (RDA, por sus siglas en inglés)— suele interpretarse como un objetivo a alcanzar. En realidad, está pensada como un mínimo para evitar la desnutrición. Según explica Stuart Phillips, cuando el foco está en envejecer con salud y preservar la masa muscular, la evidencia apunta a rangos algo superiores, siempre combinados con entrenamiento de fuerza.

Este enfoque encaja con lo publicado por Harvard y Mayo Clinic, señalan que superar ingestas cercanas a los 2 gramos por kilo de peso corporal rara vez aporta ventajas claras a la población general. En cambio, insisten en la necesidad de adaptar la cantidad de proteína a la edad, la actividad física y el estado de salud.

La proteína: necesaria, pero no milagrosa. Conviene recordar algo básico que suele perderse en la conversación pública: el cuerpo no almacena proteína. Una vez cubiertas las necesidades, el exceso se utiliza como energía o se transforma en grasa. Comer más proteína, por sí solo, no construye músculo. Como recuerdan desde Mayo Clinic: "El músculo lo construye el entrenamiento de fuerza, no el batido". 

A partir de los 40 o 50 años, la ecuación cambia ligeramente. Comienza la pérdida progresiva de masa muscular y aquí la proteína adquiere un papel estratégico, pero siempre en combinación con ejercicio de resistencia. Repartir la proteína a lo largo del día (entre 15 y 30 gramos por comida) y no concentrarla solo en la cena parece más eficaz para estimular la síntesis muscular, un punto que también subraya el investigador de la Universidad McMaster. 

La palabra del año: proteína.  Al menos en el ámbito nutricional, porque —para quien quiera saberlo— la palabra del año ha sido "arancel", y no es para menos. Pero volviendo al tema que nos atañe, la proteína se ha colado en las redes sociales, en las cafeterías y en las rutinas matinales virales. Y yendo más allá, el nuevo ritual del bienestar pasa por cafés proteicos, clear protein, suplementos funcionales y batidos que prometen cuerpos esculpidos

Esta obsesión convive con otros fenómenos contemporáneos: el miedo a envejecer, el culto al cuerpo "perfecto" y la popularización de fármacos para adelgazar como Ozempic. En este contexto, la proteína se vende casi como un talismán: sacia, adelgaza, tonifica y protege del envejecimiento. Los nutricionistas, sin embargo, son más prudentes. Muchos coinciden en que estamos pagando un sobreprecio por productos ultraprocesados que no aportan más beneficios que la comida real que ya tenemos en casa: huevos, legumbres, pescado o yogur natural.

El origen de la proteína. Otro giro importante de este debate. Llegamos hasta un metaanálisis que muestra que seguir patrones como la Planetary Health Diet, rica en proteínas vegetales, se asocia tanto a una menor mortalidad como a una menor huella climática. No se trata de eliminar la proteína animal, sino de desplazarla del centro del plato y priorizar legumbres, frutos secos y cereales integrales.

Los expertos introducen aquí un concepto clave, ampliamente citado por Harvard: el protein package. No importa solo la proteína, sino lo que viene con ella. No es lo mismo obtenerla de un ultraprocesado "alto en proteínas" que de un plato de lentejas con fibra, minerales y antioxidantes. El contexto nutricional importa tanto como el macronutriente aislado.

Entonces, ¿quién necesita realmente más proteína? Las carencias proteicas no son frecuentes en la población general. Aparecen sobre todo en personas mayores, pacientes con enfermedades, dietas muy restrictivas o problemas de masticación. En estos casos, los suplementos pueden ser una herramienta útil, nunca un atajo universal. 

Alma Palau, dietista-nutricionista y gerente del Consejo General de Colegios Oficiales de Dietistas-Nutricionistas, advertía en una entrevista en CuídatePlus de que el exceso de proteína no es inocuo. "Las proteínas que el cuerpo no necesita se metabolizan y se eliminan, pero ese proceso implica hacer trabajar innecesariamente a órganos como el riñón o el hígado", explicaba. Palau insiste en que consumir más proteína de la necesaria no se traduce en más músculo ni en más salud si no va acompañada de hidratos de carbono suficientes, una dieta variada y actividad física. En otras palabras: sin contexto, la proteína pierde su sentido.

En la misma línea, Carlos Andrés Zapata, nutricionista entrevistado por La Vanguardia, advierte de que la proteína ha sido sobredimensionada en el discurso actual y recuerda que no es más importante que otros macronutrientes como los carbohidratos o las grasas, ni sustituye a una alimentación equilibrada ni al entrenamiento de fuerza.

Menos obsesión, más equilibrio. La proteína importa, y mucho. Es esencial para mantener músculo, autonomía y calidad de vida con la edad. Pero la ciencia no respalda la idea de que sea infinita ni mágica. El propio Stuart Phillips insiste en que el error no ha sido comer proteína, sino convertirla en un fin en sí mismo.

Envejecer bien no pasa por acumular gramos ni por convertir cada comida en un experimento funcional, sino por algo mucho más sencillo —y menos rentable para el marketing—: comer suficiente, priorizar alimentos reales, entrenar fuerza, dormir bien y mantener una vida activa. En la era de la proteína infinita, el mensaje científico es sorprendentemente moderado. Quizá por eso cuesta tanto escucharlo.

Imagen | Freepik

Xataka | La fiebre por las "comidas proteicas" quiso convencernos de que más es igual a mejor. La ciencia tiene algo que decir al respecto

-
La noticia Hay una obsesión por la proteína para ganar más y más músculo. La ciencia cada vez tiene más dudas de que funcione fue publicada originalmente en Xataka por Alba Otero .



☞ El artículo completo original de Alba Otero lo puedes ver aquí

Instagram y TikTok nos han quitado la magia de las redes sociales de los 2000. La Gen Z tiene nostalgia de aquellos años y yo también

Instagram y TikTok nos han quitado la magia de las redes sociales de los 2000. La Gen Z tiene nostalgia de aquellos años y yo también

Hubo una época, no hace mucho, en la que las redes sociales eran eso, un sitio para socializar. No para opinar de todo sabiendo de ello o sin saber; no para desinformar con el objetivo de hacer daño; no para crearnos necesidades y vendernos los remedios... Y no para que hombres multimillonarios ganaran más y más dinero a costa de nuestros datos privados y de permitir abiertamente la desinformación. 

Tuenti, Fotolog, incluso el MSN  no nos pedían ser una marca personal ni dar una opinión constante. Las usábamos para compartir y sorprendernos con nuevas formas de socializar y estar en contacto con nuestras amistades y familiares, aunque estuviéramos en la distancia. 

Tuenti y las fotos borrosas

Tuenti fue, para muchos y muchas de nosotras, la primera plaza pública privada. No estaba pensada para gustar a desconocidos, sino para encontrarte con tu gente. El muro no era un escenario; era una conversación. Las fotos eran borrosas, mal iluminadas, sin filtros. 

De hecho, era muy común salir de fiesta o ir de excursión y luego subir todas, absolutamente todas las fotos, a un álbum, con el objetivo de que tus amistades con las que habías compartido esa actividad, pudieran descargarse esas fotos para tenerlas. 

Fotolog, mi favorita

Fotolog era sin duda mi favorita. Yo vivía en Madrid, echaba de menos a mis amistades asturianas y ahí nos manteníamos muy conectadas. Fotolog imponía una regla simple: una foto al día, unas pocas líneas. No se buscaba viralidad, queríamos compartir nuestra vida con la gente.

De alguna manera no te encontrabas a todo el mundo opinando de todo como pasa ahora, en el que parece que vivimos rodeados de expertos en sociología, política, relaciones internacionales o feminismo. Nadie esperaba que tuvieras una postura clara sobre cada tema del día. La identidad digital no estaba atravesada por la urgencia de posicionarse.

Subíamos fotos que, en caso de tener algún filtro, era simplemente que le habíamos puesto demasiado contraste porque estaban de moda esas fotos con mucho contraste. Eso se traduce a que no había fotos donde todo el mundo aparecía con los mismos labios o la misma nariz.  Acabó cerrando en 2016 cuando ya todos habíamos sucumbido masivamente a las redes sociales de Mark Zuckerberg. 

Hasta que pasaron a ser un negocio masivo

Con el tiempo, las redes crecieron, se profesionalizaron y se monetizaron. La espontaneidad fue cediendo espacio a la estrategia. Aparecieron los filtros, los algoritmos, las narrativas perfectas y hasta los zascas, a ver quién es más ingenioso callando al otro. 

Y, además de eso, el hecho de que tras las redes sociales que más usamos se encuentran varias de las personas más ricas del mundo. Han pasado a ser algo político y no ya una diversión, un espacio de interacción. Influencers que a diario nos convencen de que tenemos que tener un estereotipo de físico y una forma de vida inalcanzable para la mayoría de los humanos. 

No hay que olvidar todas las irregularidades que se han descubierto de las grandes redes a golpe de sentencia y de filtración de documentos como que desde Meta saben que Instagram afecta a la salud mental de los menores y aun así estuvieron presionando para permitir una versión para niños y niñas.

Imagen | Foto de Toxic Player en Unsplash

En Genbeta | Los creadores de TikTok han lanzado un editor con IA que modifica la imagen con tan solo decírselo: ya lo puedes usar gratis

En Genbeta | Solo hacen falta 35 minutos para engancharse a TikTok: los documentos internos de la red social son estremecedores

-
La noticia Instagram y TikTok nos han quitado la magia de las redes sociales de los 2000. La Gen Z tiene nostalgia de aquellos años y yo también fue publicada originalmente en Genbeta por Bárbara Bécares .



☞ El artículo completo original de Bárbara Bécares lo puedes ver aquí

NASA estudiará la exosfera de la Tierra desde un nuevo observatorio espacial

noticia_2_halo_tierra_final

La exosfera es la región más distante de la atmósfera terrestre, una capa tan tenue que muchos ni siquiera saben que existe. Se extiende más allá de los 500.000 kilómetros desde la superficie terrestre, llegando a tocar, según los científicos, la mitad de la distancia hacia la Luna. A pesar de su lejanía y su naturaleza escurridiza, esta capa tiene un papel clave en la forma en que nuestro planeta interactúa con el espacio.

Con el lanzamiento del Carruthers Geocorona Observatory, la NASA busca observar por primera vez de forma continua este «halo invisible» que rodea la Tierra. La misión, bautizada en honor al científico George Carruthers, pionero en el desarrollo de cámaras ultravioletas, proporcionará datos fundamentales para entender fenómenos como el clima espacial, la pérdida atmosférica y las condiciones que hacen posible la vida en la Tierra.

Qué es la geocorona y por qué importa

La geocorona es una tenue luminiscencia ultravioleta emitida por los átomos de hidrógeno que flotan en la exosfera. Aunque invisibles al ojo humano, estos átomos reflejan la luz solar en longitudes de onda ultravioletas, generando un resplandor difícil de captar desde la Tierra.

Este brillo fue fotografiado por primera vez en 1972, gracias a una cámara diseñada por Carruthers y colocada en la superficie lunar durante la misión Apollo 16. Desde esa perspectiva, los astronautas lograron captar el contorno difuso de la geocorona, revelando que se extendía mucho más lejos de lo que se pensaba.

Hoy, medio siglo después, los científicos aún se enfrentan a grandes lagunas en el conocimiento de cómo se comporta esta capa. La nueva misión permitirá filmar este entorno en tiempo real, captando no solo su estructura general, sino también sus variaciones internas.

Clave para comprender el clima espacial

La exosfera es la primera frontera que encuentra la energía proveniente del Sol, especialmente durante tormentas solares. Cuando una eyección de masa coronal alcanza la Tierra, los primeros efectos se perciben justo en esta capa superior, desencadenando reacciones que pueden afectar a satélites, telecomunicaciones y a los astronautas en misiones espaciales.

Con el Carruthers Geocorona Observatory, la NASA busca anticiparse a estos fenómenos. Al comprender mejor cómo responde la exosfera a las perturbaciones solares, podrán elaborarse modelos de predicción más precisos para proteger tanto infraestructuras espaciales como futuras misiones tripuladas, incluyendo los viajes a la Luna con el programa Artemis y, más adelante, a Marte.

Hidrógeno, agua y exoplanetas

Más allá de la protección frente al clima espacial, el estudio de la exosfera permite entender la forma en que la Tierra pierde hidrógeno hacia el espacio. Este elemento, parte esencial del agua (H2O), se escapa de manera constante, y aunque la cantidad sea pequeña, el proceso tiene implicaciones importantes.

Comparar esta pérdida con lo que ocurre en otros planetas puede ofrecer pistas sobre por qué la Tierra ha conservado sus óceanos mientras Marte, por ejemplo, los perdió. Esta información será clave para evaluar la habitabilidad de exoplanetas, al analizar si sus atmósferas están sujetas a procesos similares de escape.

Tecnología al servicio de la observación espacial

El observatorio Carruthers fue lanzado el 24 de septiembre de 2025 desde Cabo Cañaveral, a bordo de un cohete Falcon 9 de SpaceX. Comparte viaje con otras dos misiones centradas en heliosfísica: IMAP (Interstellar Mapping and Acceleration Probe) y SWFO-L1 (Space Weather Follow-On), de la NOAA.

Su destino es el punto de Lagrange 1 (L1), una ubicación gravitacionalmente estable situada a un millón de millas de la Tierra, en dirección al Sol. Desde allí, el observatorio tendrá una vista privilegiada para estudiar el resplandor de la geocorona con dos instrumentos principales: una cámara de campo cercano y otra de campo amplio. La primera permite enfocarse en detalles cercanos a la Tierra, mientras que la segunda revela la extensión completa de la exosfera y su comportamiento a gran escala.

Un legado que sigue creciendo

George Carruthers, fallecido en 2020, fue uno de los primeros en demostrar que el estudio de la atmósfera desde el espacio podía ofrecer datos valiosos. Su cámara en la Luna fue precursora de los observatorios espaciales actuales. Que una misión lleve ahora su nombre, desarrollada por BAE Systems bajo la dirección de la NASA y la Universidad de Illinois en Urbana-Champaign, es una forma de honrar su legado.

Este nuevo observatorio no solo busca llenar vacíos en nuestro conocimiento sobre la atmósfera terrestre, sino también ampliar la comprensión de los procesos planetarios en otros rincones del universo. Al estudiar en profundidad la única atmósfera que sabemos que puede sostener la vida, los científicos esperan encontrar patrones comunes que orienten la búsqueda de vida más allá de la Tierra.


La noticia NASA estudiará la exosfera de la Tierra desde un nuevo observatorio espacial fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.


☞ El artículo completo original de Natalia Polo lo puedes ver aquí

La verdadera razón por la que Musk, Bezos y Pichai quieren construir centros de datos en el espacio: saltarse la regulación

La verdadera razón por la que Musk, Bezos y Pichai quieren construir centros de datos en el espacio: saltarse la regulación

La construcción de centros de datos está proliferando tanto que aunque los más grandes del mundo estén en Kolos (Noruega), en The Cidatel (Estados Unidos) y China, te los encuentras ya hasta en Botorrita, en la provincia de Zaragoza. El limite es el cielo. O bueno, ni eso: porque a Silicon Valley se le ha puesto entre ceja y ceja montar centros de datos en el espacio.

Y las principales big tech están moviendo ficha para lograrlo. El ex-CEO de Google Eric Schmidt compró la empresa de cohetes Relativity Space con ese objetivo. Nvidia ha respaldado a la startup Starcloud en su proyecto de lanzar la primera GPU NVIDIA H100 al espacio hace unas semanas y Elon Musk hasta ha condensado cómo lo haría en un tuit: "Bastará con escalar los satélites Starlink V3, que tienen enlaces láser de alta velocidad". El cuándo lo deslizó Jeff Bezos en una predicción en la Italian Tech Week: veremos "clústeres gigantes de entrenamiento" de IA en órbita en los próximos 10 o 20 años. 

La luna es un regalo del universo

La siguiente pregunta sería "¿por qué?". La realidad es que motivos no le faltan. La IA es un auténtico devorador de energía y como la demanda no para de crecer, el espacio ofrece un par de ventajas diferenciales respecto a la Tierra: una energía casi ilimitada y refrigeración gratis. Por un lado, en el espacio tenemos una órbita heliosíncrona donde los paneles solares reciben energía casi continuamente. Por otro, puede ponerse un radiador tan grande para que el espacio funcione como una suerte de 'disipador térmico infinito a -270°C'. No harían falta las enormes cantidades de agua indispensables para el enfriamiento en Tierra.

Vaya por delante que a día de hoy no salen las cuentas para tener centros de datos en el espacio. Pero no falta demasiado: el profesor investigador de la Universidad de Florida Central y antiguo miembro de la NASA Phil Metzger estima que quizá dentro de una década pueda ser económicamente viable. Pero tiene tan clara su viabilidad que considera que llevar los servidores de IA al espacio son "el primer caso de negocio real que dará paso a muchos más" ante una futurible migración humana más allá de la Tierra.

Así que de momento, lo intentan en la Tierra. Consecuencia: que Donald Trump declare una emergencia energética por la enorme demanda eléctrica prevista para los próximos años. Mientras la red eléctrica se pone al día (o lo intenta), las empresas de IA han decidido pasar de una posición pasiva a una proactiva: Meta se va a convertir en comercializadora eléctrica. xAI de Elon Musk está usando turbinas de gas como fuentes de energía temporal. OpenAI está presionando al gobierno de Estados Unidos para que eche una mano a las eléctricas para sumar 100 gigavatios anuales. 

Esa cifra a pelo no dice demasiado, pero es astronómica: lo que viene a pedir OpenAI es que Estados Unidos construya casi una España entera (en torno a 145 GWh considerando los 129 GW consolidados a cierre de 2024 más el despliegue solar y eólico de 2025) cada año y medio en términos de infraestructura. 

La IA crece más rápido de lo que avanza la burocracia eléctrica

¿Cómo podría ayudar la Administración de Trump? Con la eterna burocracia. Porque en la Tierra afrontan grandes retos técnicos, pero también se enfrentan a un muro legislativo. Para disponer de más energía el paso más simple e inmediato pasa por construir nuevas centrales eléctricas, pero eso supone atravesar exitosamente la maraña de trámites que ralentizan el proceso. Solo hay un problemilla: que en Estados Unidos en función de la tecnología, puede llevar de cinco a diez años... con suerte.

Solo la interconexión a la red puede llevar seis años, superando con éxito una cola de interconexión con más de 2.000 GW en proyectos que ya están en la fila. Después, hasta cuatro años de permisos federales y ambientales para terminar en otro par de años más para las licencias estatales y locales que deben llegar a buen puerto. 'Permit Stack' le llaman.

Y no acaba aquí el periplo: también deben esquivar el movimiento ciudadano 'Not in my backyard' (no en mi patio trasero, algo así como "sí, pero no en mi casa"), que ya ha echaron atrás la Battle Born Solar Project (Nevada), la que iba a ser la planta solar más grande de Estados Unidos, o la central de gas de Danskammer (Nueva York), entre otros. Esto puede dilatar la operación todavía más en tanto en cuanto se deben negociar derechos de paso con propietarios individuales que pueden negarse, volviendo a pasar por los tribunales. El cuento de nunca acabar.

Para evitar a procesos NIMBY que duren quince años o más, empresas como OpenAI o Microsoft están comprando centrales que ya existen, como por ejemplo la de Three Mile Island, que va a reabrir solo para Microsoft, en lugar de intentar construir nuevas desde cero. Amazon también ha fichado infraestructura que ya está en la red como el Campus de Talen Energy y se ha aliado con Dominion Energy y X-energy para desarrollar minireactores (SMR). También los SMR son la solución de Google, en su caso gracias a un acuerdo con Kairos Power.

Todo sea por esquivar esa maraña de trámites del 'Permit stack' que en la práctica y según las estimaciones, hace que sea más rápido optar por la vía espacial que construir una central eléctrica en la vieja y conocida Tierra. Al fin y al cabo para las empresas de la IA "La luna es un regalo del universo", como ya vislumbró Jeff Bezos.


En Xataka | Musk ha creado el círculo perfecto: las megabaterías de Tesla alimentan la IA que definirá sus próximos coches

En Xataka | Unos investigadores han desmontado las baterías de Tesla y BYD. Ya saben cuál rinde mejor y es mucho más barata

Portada | İsmail Enes Ayhan y NASA

-
La noticia La verdadera razón por la que Musk, Bezos y Pichai quieren construir centros de datos en el espacio: saltarse la regulación fue publicada originalmente en Xataka por Eva R. de Luis .



☞ El artículo completo original de Eva R. de Luis lo puedes ver aquí