18 de febrero de 2026

La Genesis Mission: una apuesta por meter inteligencia artificial en el método científico

noticia3_genesis

La administración Trump ha puesto nombre y ambición a un plan que suena a “proyecto paraguas”: la Genesis Mission, un esfuerzo federal para incorporar IA en la investigación científica con una escala que el Departamento de Energía (DoE) compara, por intención y coordinación, con grandes programas históricos. La idea central es sencilla de explicar con una imagen cotidiana: si hoy muchos laboratorios trabajan como cocinas separadas, con recetas guardadas en cajones distintos, Genesis quiere una “mesa de trabajo compartida” donde modelos, datos y simulaciones se conecten y aceleren el ritmo de descubrimiento.

Según explicó el DoE en un documento de 26 páginas difundido el 13 de febrero de 2026 y recogido por The Register, el objetivo político-tecnológico que enmarca todo es elevar la productividad en I+D de Estados Unidos y duplicar su impacto en un plazo de una década. Ese enunciado es deliberadamente amplio: no promete un invento concreto, promete velocidad. Y ahí está el punto delicado: la velocidad en ciencia no se compra solo con software; requiere datos de calidad, infraestructura, talento y tiempo de validación.

Los 26 desafíos: un menú que mezcla industria, energía y ciencia fundamental

El primer “paquete” de Genesis se concreta en 26 desafíos considerados de “importancia nacional”. El DoE sostiene que se han seleccionado por su potencial de traducirse en beneficios tangibles para el país, desde prioridades económicas hasta seguridad estratégica. La lista junta temas muy distintos en una misma estantería: minerales críticos, manufactura avanzada, liderazgo en centros de datos, laboratorios autónomos guiados por algoritmos y, en el extremo más aspiracional, preguntas de física que rozan la idea de una teoría unificada.

Darío Gil, subsecretario de Ciencia del DoE y figura asociada al liderazgo de Genesis, presentó el enfoque con un lenguaje optimista: la ciencia “al ritmo de la imaginación” gracias a la inteligencia artificial. Es una frase que funciona bien como titular, aunque, vista en frío, describe más una dirección que un plan de obra con fechas. El propio departamento evita comprometer calendarios más allá del horizonte de diez años para duplicar productividad, sin detallar hitos intermedios públicos para cada reto.

Fusión nuclear: usar gemelos digitales para dejar de perseguir el “siempre faltan 30 años”

Uno de los ejemplos más desarrollados del documento es la fusión nuclear, ese objetivo que suele describirse como “prometedor” y que casi siempre llega acompañado de un chiste sobre su eterna distancia temporal. El DoE argumenta que el enfoque tradicional —ensayos muy específicos, centrados en cada dispositivo y poco conectados con dependencias como integración en red, control en tiempo real o comercialización— limita el avance. Es como intentar mejorar una receta cambiando solo la sal, sin tocar el horno, la temperatura o el tiempo de cocción.

La propuesta aquí gira alrededor de gemelos digitales: réplicas virtuales que permiten simular, probar y ajustar un sistema antes de tocar hardware caro. El DoE habla de una plataforma bautizada como AI-Fusion Digital Convergence Platform, que integraría HPC (supercomputación), algoritmos nuevos para códigos científicos, modelos fundacionales aplicados a plasma y ciencia de materiales, redes neuronales informadas por física y química, modelos sustitutos para acelerar cálculos y gemelos digitales a escala de instalación completa para control casi en tiempo real. Suena espectacular; el reto real será que esas piezas, que hoy suelen vivir en proyectos separados, encajen como un reloj y no como una caja de piezas sueltas.

Ocho décadas de datos nucleares: convertir archivos dispersos en conocimiento utilizable

Entre los objetivos más “aterrizados” aparece uno con sabor a trabajo silencioso, poco glamuroso y decisivo: digitalizar, estructurar y asegurar más de ochenta años de datos nucleares estadounidenses. En términos prácticos, se trata de transformar información histórica —a menudo dispersa, con formatos heterogéneos y distintos niveles de clasificación— en conjuntos de datos consultables que sirvan para decisiones de energía y seguridad nacional.

Aquí la metáfora no es un cohete, es una biblioteca. La IA puede ser una bibliotecaria que clasifica, etiqueta y cruza referencias con rapidez, pero solo si los documentos están accesibles y si el proceso respeta controles de acceso y trazabilidad. The Register subraya este enfoque como una de las metas con aplicaciones claras: mejores decisiones futuras basadas en memoria institucional, no en cajas de papel y silos digitales.

Agua y energía: pronosticar necesidades en un sistema que se recalienta por demanda

Otro objetivo práctico se centra en el agua, un recurso que se vuelve más crítico a medida que crece la infraestructura energética, especialmente allí donde la generación, la refrigeración industrial y la operación de grandes instalaciones compiten por disponibilidad. El DoE plantea aplicar inteligencia artificial para predecir necesidades hídricas vinculadas a la expansión del sistema energético.

Traducido a ejemplo doméstico: cuando una familia añade electrodomésticos y rutinas nuevas, la factura y el consumo cambian; si nadie lo anticipa, llegan sorpresas. En el plano nacional, anticipar demanda de agua ligada a energía puede ayudar a planificar, reducir riesgos y priorizar inversiones. La dificultad estará en combinar datos ambientales, industriales, regulatorios y de operación con modelos que no “alucinen” correlaciones.

Centros de datos, fábricas y laboratorios autónomos: la parte más abierta del plan

Varios retos del documento, siempre según lo recogido por The Register, suenan más a grandes ejes de investigación que a entregables. Reimaginar la manufactura avanzada y la productividad industrial, asegurar liderazgo en centros de datos, o alcanzar laboratorios autónomos impulsados por IA son propuestas que se entienden rápido, aunque son difíciles de delimitar.

Un laboratorio autónomo, por ejemplo, no es un robot que mezcla líquidos y ya está. En el ideal, sería un sistema que diseña experimentos, ejecuta, mide, aprende del resultado y decide el siguiente paso, como un chef que prueba, ajusta y vuelve a cocinar sin que nadie le dicte cada movimiento. Eso exige instrumentación, estándares de datos, controles de seguridad y, sobre todo, criterios científicos para evitar que el sistema optimice “lo medible” y olvide lo importante.

En centros de datos, el término “liderazgo” puede abarcar desde eficiencia energética hasta arquitectura de chips, refrigeración, software de gestión, seguridad y soberanía tecnológica. Si todo entra, también cuesta saber qué sale primero.

Ambición y recortes: el contexto presupuestario que incomoda a la narrativa

Genesis llega en un momento políticamente tenso para la ciencia federal. The Register describe recortes, eliminación de expertos y reducción de presupuestos en varias ramas del gobierno, incluyendo el DoE. En el presupuesto solicitado para el año fiscal 2026, la Casa Blanca planteó bajar la Office of Science del DoE de 8.240 millones de dólares en FY2025 a 7.092 millones, y reducir de forma drástica la partida de Energy Efficiency and Renewable Energy (EERE) de 3.460 millones a 888 millones.

Hay un matiz clave: el Congreso no adoptó el recorte propuesto para la Office of Science y el proyecto de ley de Energía y Agua para FY2026 sitúa esa oficina en torno a 8.400 millones. Eso no elimina la presión en otras áreas del portafolio de I+D del DoE, que seguirían enfrentando reducciones frente a niveles previos. El choque es evidente: pedir ciencia “más rápida” mientras se ajusta el grifo presupuestario obliga a priorizar y a demostrar retornos pronto.

El propio DoE, tras la publicación, respondió a The Register defendiendo que no se está depriorizando la ciencia y que el enfoque es impulsar avances “reales” como fusión, supercomputación, computación cuántica e IA, recortando lo que considera gasto menos eficiente. También habló de inversiones en laboratorios y en iniciativas legislativas recientes. En cuanto a resultados, la promesa concreta se reduce a que habrá “victorias tempranas” en los próximos años mediante proyectos piloto en energía, materiales y manufactura avanzada, mientras el objetivo grande sigue siendo la década.

El riesgo de fondo: cuando la IA promete velocidad y la ciencia pide verificación

El gran interrogante no es si la inteligencia artificial sirve para ciencia; ya sirve, y mucho, en áreas como modelado, diseño de materiales, análisis de datos y automatización experimental. El interrogante es de gobernanza y realismo: cómo se evita que una lista de retos se convierta en un catálogo de deseos sin métricas verificables, o que las prisas empujen a publicar resultados frágiles.

También existe un riesgo humano que The Register deja caer con ironía: si el gobierno apuesta por “ciencia con IA” mientras recorta equipos, puede encontrarse necesitando recuperar a los mismos investigadores que salieron por falta de estabilidad. La IA, en la práctica, amplifica capacidades; rara vez sustituye el juicio experto cuando toca validar hipótesis, diseñar controles o interpretar resultados con contexto.

Genesis, tal como se presenta, apunta a una reorganización del laboratorio moderno: datos bien ordenados, simulación integrada, infraestructura computacional potente y herramientas de IA conectadas a objetivos nacionales. Si esa base se construye, el impacto puede ser real. Si se queda en eslóganes y documentos breves, el país habrá aprendido una lección cara sobre la distancia entre imaginar y ejecutar.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Una estación china ha entrenado a sus empleados para ahorrar 2 segundos en su tarea. Ahora tienen 30.000 pasajeros más

Una estación china ha entrenado a sus empleados para ahorrar 2 segundos en su tarea. Ahora tienen 30.000 pasajeros más

Piensa en una actividad que repitas a diario. Piensa cuánto tiempo te lleva y qué supondría dedicar dos segundos menos. ¿Qué harías con ese tiempo? Eso es lo que se han preguntado los trabajadores y técnicos de la Estación Sur de Tren de Guangzhou (China). Y el resultado ha sido espectacular: 48 trenes más en movimiento y 30.000 pasajeros más en las vías. 

2 segundos. Es el tiempo que los trabajadores y técnicos chinos empleados en la Estación Sur de Tren de Guangzhou (China) tenían en mente. Era el gran objetivo. Durante más de un mes, todos ellos han estado trabajando con una meta delante: reducir el tiempo que tardan en limpiar y poner a punto los trenes que pasan por la estación en dos segundos. 

Zhong Miao, oficial de servicio de control integral de la Estación de Tren del Sur de Guangzhou, explica a los medios chinos que después de mes y medio consiguieron reducir el tiempo de esta tarea de 58 a 56 segundos. La intención final, por supuesto, era que el tren estuviera menos tiempo detenido. 

El resultado. Con los cambios introducidos, los operarios de la estación pudieron dar paso a 48 trenes más en un solo día. Los dos segundos que pueden parecer insignificantes permitieron elevar el número de pasajeros en más de 30.000 personas. 

Para conseguirlo, señalan en los medios locales, los operarios trabajaron con una enorme cantidad de datos recogidos a través de numerosas cámaras. Solo esta estación tiene una sala de control con 208 pantallas. Con ellas analizaron cuánto tiempo pasaban los pasajeros en la estación y se ha conseguido que el tiempo de paso de los viajeros se reduzca en un 17% en comparación a la cifra recogida hace tres años.

La Estación Sur de Tren de Guangzhou. Para un tren, dos segundos eran poco menos que marginales. Para una estación por la que pasan más de medio millón de personas todos los días es todo un mundo. Y es que la nueva forma de actuar se ha puesto en marcha aprovechando el Festival de la Primavera, días en los que los trayectos se multiplican aprovechando el Año Nuevo Chino. 

Si las previsiones se cumplen, de media, pasarán cada día por esta estación 530.000 pasajeros en los trenes de alta velocidad chinos. Se calcula que en octubre del año pasado se batió un nuevo récord cuando se rozó el millón de pasajeros de paso por la estación

No es ni la estación más concurrida de China, sus 28 andenes tampoco representan ningún récord. Pero para que nos hagamos una idea del trajín que se vive dentro, el pasado 13 de febrero se operaron 1.200 trenes en un solo día como consecuencia de los desplazamientos del mencionado Festival de Primavera. Para hacernos una idea, en picos de desplazamientos como Semana Santa, por Atocha pasan 270 trenes, en los que se suma alta velocidad pero también larga y media distancia. 

La línea de alta velocidad más larga del mundo. La estación se encuentra en un punto clave, cerca de Shenzhen y de Hong-Kong y sirve de estación de paso a todos los viajeros que llegan desde el Sureste chino hacia grandes ciudades como Chongqing, Pekín o Shanghai, con quienes está conectada la estación. 

De hecho, el Guangzhou-Pekín es una de las joyas de la corona del servicio ferroviario chino. Y es que desde 2012 es la línea de alta velocidad más larga del mundo, con 2.298 kilómetros. Durante su inauguración se aspiraba a que el tren tardara menos de ocho horas en cruzar una distancia equiparable a viajar de Algeciras a Ámsterdam. Hoy, ese trayecto se puede realizar en 7 horas y 17 minutos si se toma el tren bala más rápido. 

Foto | Tauno Tohk y Yang

En Xataka | China no solo ha creado la red de alta velocidad más amplia del mundo: quiere operarla a 1.000 km/h y ha dado un nuevo paso


-
La noticia Una estación china ha entrenado a sus empleados para ahorrar 2 segundos en su tarea. Ahora tienen 30.000 pasajeros más fue publicada originalmente en Xataka por Alberto de la Torre .



☞ El artículo completo original de Alberto de la Torre lo puedes ver aquí

Todas las Big Tech están apostando el dinero que tienen y el que no tienen al futuro de la IA. Todas menos una: Apple

Todas las Big Tech están apostando el dinero que tienen y el que no tienen al futuro de la IA. Todas menos una: Apple

650.000 millones de dólares. Ahí es nada. Esa es la cantidad total que van a invertir Google, Amazon, Meta y Microsoft en centros de datos para IA. Esa cantidad de dinero es asombrosa y es similar al PIB a ctual de países como Argentina o Israel. Pero lo curioso no es solo eso: es que hay una Big Tech que está ignorando totalmente esa fiebre por gastar en la IA como si no hubiera mañana. 

Apple a contracorriente. La empresa liderada por Tim Cook es la única del grupo de las grandes tecnológicas cuyo capex (gasto de capital previsto) se redujo el pasado trimestre. Según datos de FactSet compilados por Sherwood, las previsiones de Apple para ese trimestre no fueron las de gastar más, sino atención, gastar (bastante) menos.

Las cifras no mienten. Según los datos que han dado dichas empresas, Amazon espera que en 2026 su capex llegue hasta los 200.000 millones de dólares. Google quiere pasar de 175.000 a 185.000 millones. Meta estima que el gasto estará entre los 115.000 y los 135.000 millones. Y aunque Microsoft no dio una cifra específica, seguramente superen los 114.000 millones de dólares estimados por Wall Street. ¿Y Apple? Apple no gastará más, sino un 19% según sus últimas estimaciones: unos 12.700 millones de dólares.

  • Amazon: +42% YoY (respecto al año anterior)
  • Microsoft: +89% YoY
  • Google: +95% YoY
  • Meta: +48% YoY
  • Apple: -19% YoY

Cupertino pasa de la IA. Mientras sus competidoras gastaron sumas récords el trimestre pasado (que terminó el 31 de diciembre) en la compra de material y propiedades ligados al sector de la IA y a centros de datos, Apple sigue sin invertir en dicho sector. Es algo que deja claro que la compañía parece haber decidido definitivamente que esta no es su guerra. 

Siri+Gemini es la mejor prueba. La confirmación de esa "rendición" está en el reciente anuncio de que Gemini será la IA en la que se basará la nueva versión de Siri. Se espera que el nuevo asistente con IA de Apple llegue esta primavera al mercado al menos con algunas prestaciones iniciales, pero que lo haga dependiendo totalmente del modelo de IA de Google deja claro que Apple aquí prefiere delegar en lugar de invertir para tener su propio modelo fundacional. 

La IA será una commodity. En lugar de participar en esa costosa guerra de modelos de lenguaje, Apple tiene claro que la IA va a acabar siendo una commodity, algo que se va a convertir en una tecnología estándar básica como ahora lo es el PC, el móvil o el portátil. Los precios de los modelos se desploman mientras la capacidad de esos modelos crece, y los benchmarks dejan claro que ningún modelo es mejor que otro durante mucho tiempo. 

Apple como puerta de entrada a la IA. Como de costumbre, lo que hará Apple es aprovechar que tiene la "puerta de entrada a la IA. Con 2.400 millones de dispositivos en todo el mundo, controla el canal de distribución más valioso del planeta. Se puede permitir el lujo de no fabricar "el motor", sino de actuar como una vía para llevar la IA a las masas. Aquí acuerdos como el que ha completado con Google son solo el principio. 

No importa llegar tarde. Es algo que está en el ADN de la compañía. No quiso tampoco librar la batalla de los buscadores, pero no importó: llegó a un acuerdo con Google, que le ha pagado miles de millones de dólares durante años para poder poner su buscador como motor por defecto en los iPhone, iPad y Mac. Apple prefiere que otros le allanen el camino y absorban los costes del aprendizaje temprano. Luego ella suele llegar con una integración superior y una experiencia refinada (iPod, iPhone) o directamente con acuerdos como el que completó en el ámbito de los buscadores.

La IA será invisible y ubicua. El objetivo de Apple no parece ser ofrecer su propio chatbot en la web, sino hacer que la IA sea invisible y ubicua. Que no importe qué modelo corre detrás, sino simplemente que esa IA funcione de forma transparente para el usuario. Y que lo haga, por supuesto, integrada a la perfección en los servicios y aplicaciones de Apple. 

Privacidad por bandera. Y por supuesto, con esa cacareada apuesta por la privacidad de la que siempre presume Apple. Su Private Cloud Compute es la mejor prueba de ello. Al no depender de la publicidad (hola, Google, hola, OpenAI), es capaz de ofrecer funciones avanzadas sin recolectar datos masivos de los usuarios.

Pero hay riesgo. Aun así, la estrategia tiene un riesgo crítico: si los modelos de IA se convierten en una commodity y terminan creando monopolios tecnológicos, Apple podría quedar permanentemente a merced de sus proveedores. Si esas ventajas competitivas acaban consolidándose en la capa de modelo —la que controlan OpenAI, Anthropic y Google— y no en la de integración —que es de Apple—, la dependencia de terceros será una debilidad estratégica peligrosa.

Margen de maniobra. Apple tiene beneficios anuales cercanos a los 100.000 millones de dólares, lo que le confiere una posición financiera envidiable para esperar que este ciclo de "hype" se enfríe. Está claro que existe una burbuja de la IA y que esa burbuja probablemente acabará explotando y dejando muchas víctimas. Si lo hace, una de las que sin duda tendrá margen de maniobra para sobrevivir será Apple.

Imagen | Xataka con Freepik

En Xataka | China no tiene un problema de gasto con la IA. Lo que tiene es una enorme brecha de ingresos frente a su principal rival

-
La noticia Todas las Big Tech están apostando el dinero que tienen y el que no tienen al futuro de la IA. Todas menos una: Apple fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí

Dejamos que la IA nos resuma los textos y escriba los correos: es un grave error según el último estudio sobre el Alzheimer

Dejamos que la IA nos resuma los textos y escriba los correos: es un grave error según el último estudio sobre el Alzheimer

A día de hoy, la enfermedad de Alzheimer sigue siendo uno de los mayores retos de la medicina para poder entender por qué se produce, para dar lugar a mejores tratamientos. Y aunque la farmacología está avanzando a pasos agigantados para poder tratar de frenarla, la ciencia nos deja cada vez más claro que el estilo de vida es nuestra mejor arma para poder prevenir la enfermedad. Y no solo se habla de la dieta o el ejercicio físico, sino también de cómo se 'entrena' el cerebro con la escritura o la lectura. Unas actividades que estamos perdiendo. 

Nueva evidencia. Un nuevo estudio publicado en la prestigiosa revista Neurology ha apuntado a que tener un "enriquecimiento cognitivo" a lo largo de la vida puede reducir el riesgo de desarrollar Alzheimer en un 38% y retrasar la aparición de la enfermedad hasta en cinco años. Aunque aquí la pregunta está en cómo se puede enriquecer el cerebro para evitar esta enfermedad tan devastadora. 

Un escudo protector. El estudio se basa en una muestra pequeña de 1939 personas, con una edad media de 80 años y con un 75% de mujeres, que no contaban con ningún tipo de demencia al inicio del experimento. A partir de aquí comenzaron a seguirlas durante ocho años con diferentes evaluaciones anuales para poder determinar el grado de demencia que tenían. 

Pero, ¿qué es exactamente el "enriquecimiento cognitivo"? El equipo de investigadores midió la exposición de estos individuos a entornos intelectualmente estimulantes a lo largo de su vida, donde se incluyen hábitos tan cotidianos y accesibles como leer, escribir, aprender nuevos idiomas, visitar museos o bibliotecas y disponer de recursos educativos en el hogar desde la propia niñez.

Los resultados. Una vez analizados y cruzados todos los datos, se pudo ver que las personas que contaban con el mayor enriquecimiento cognitivo mostraron una incidencia en el alzhéimer del 21%. Esta es una cifra que va aumentando conforme se va viendo una menor actividad intelectual y cultural, hasta llegar a una incidencia del 34% en aquellos pacientes que están en el 10% del rango de enriquecimiento cognitivo.

De manera global, el grupo con una mayor estimulación presentó un 38% menos de riesgo de Alzheimer y un 36% de riesgo de tener deterioro cognitivo leve. 

Retrasando la enfermedad. Más allá de los porcentajes de riesgo, lo más importante está en el retraso del inicio de la enfermedad. Aquí el estudio constató que las personas con una mente altamente estimulada retrasaron la aparición de Alzheimer en unos cinco años, manifestándose de promedio a los 94 años frente a los 88 años del grupo con una menor estimulación. 

En el caso del deterioro cognitivo leve, el "retraso" logrado fue aún mayor al pasar de debutar con la enfermedad a los 78 años a los 85 años. 

¿A qué se debe? Uno de los aspectos más fascinantes del trabajo proviene del análisis de diferentes cadáveres para ver qué ocurría en sus propios cerebros según el estilo de vida que llevaban cuando estaban vivos. Y aquí se vio que el enriquecimiento cognitivo no evitaba que se formaran las placas de amiloide, que es una de las causas que provocan el Alzheimer. 

Lo que se vio aquí es que las personas que habían mantenido su mente activa con la escritura o la lectura mostraban un declive cognitivo mucho más lento y una mejor memoria y capacidad de pensamiento, incluso cuando sus cerebros ya presentaban el daño físico asociado a la demencia. Es como si el cerebro, al haber sido entrenado y nutrido durante décadas, hubiera construido otras vías para seguir funcionando eficientemente a pesar de que las vías principales empezaran a colapsar por culpa de la 'basura' en el cerebro que genera la enfermedad.

Hay matices. En este caso hemos puesto el foco en un estudio observacional basado, en parte, en el recuerdo de las experiencias de los propios pacientes, como por ejemplo lo que hacían hace cincuenta años. Esto hace que se vea una asociación importante, pero que no es una casualidad directa o indiscutible por otros estudios 

Sin embargo, los hallazgos no caen en saco roto, sino que se suman a una montaña de evidencia previa que apunta a que el enriquecimiento previo reduce las patologías asociadas al Alzheimer. Esto hace que la ciencia apunte a la recomendación de dedicar al menos una hora al día a hobbies y la lectura puede proteger nuestro cerebro.

La tecnología contra nosotros. Es una realidad que a día de hoy algunas actividades como la escritura a mano han decaído ante la escritura en una tablet o en un ordenador para tomar apuntes o escribir correos electrónicos. Esto también se suma a que los audiolibros comienzan a tener muchísimo peso en el día a día, lo que hace que cada vez entrenemos menos nuestro cerebro a ponernos y leer un buen libro. 

De esta manera, mantener el cerebro ocupado con actividades como, por ejemplo, crucigramas, sudokus o cualquier tipo de actividad puede ser fundamental para tener el freno ante enfermedades tan devastadoras como esta. 

Imágenes | Thought Catalog 

En Xataka | El Alzheimer ya no parece irreversible: la ciencia logra que cerebros con daños avanzados se recuperen por primera vez en animales

-
La noticia Dejamos que la IA nos resuma los textos y escriba los correos: es un grave error según el último estudio sobre el Alzheimer fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí

Un “túnel” gigante bajo Venus: el indicio que el radar de Magellan dejó escondido durante décadas

noticia2_venus

Si Venus fuera una ciudad, su superficie sería el barrio que todos vemos desde la calle, mientras que su subsuelo sería el metro: un entramado de pasadizos que casi nunca se deja fotografiar. Un equipo de la Università di Trento cree haber encontrado una de esas “líneas subterráneas” volcánicas: evidencia sólida de un tubo de lava enorme enterrado bajo la región de Nyx Mons, una zona asociada a actividad volcánica. El hallazgo se apoya en una relectura cuidadosa de datos antiguos de la misión Magellan de la NASA, que cartografió el planeta con radar de apertura sintética (SAR) a principios de los años noventa.

El trabajo, publicado en Nature Communications, no describe una cueva vista “a simple vista” (en Venus eso es imposible con cámaras normales), sino una estructura inferida por cómo el radar responde ante un colapso localizado del terreno y por la forma del relieve cercano. Aun así, las estimaciones que proponen impresionan: un conducto vacío con un diámetro cercano a un kilómetro, con un techo de al menos 150 metros de grosor y un hueco interno con una profundidad mínima de 375 metros en la zona mejor caracterizada.

Por qué encontrar tubos de lava en Venus es tan complicado

En la Tierra, los tubos de lava suelen delatarse por entradas naturales o por derrumbes del techo que dejan un “boquete” visible. En otros mundos, como la Luna o Marte, se han identificado estructuras parecidas porque se pueden observar directamente con cámaras o con instrumentos que combinan imágenes y topografía.

En Venus, la historia cambia: sus nubes densas y permanentes actúan como una cortina opaca. Si intentaras hacer una foto convencional, sería como intentar fotografiar un paisaje desde dentro de una sauna. Por eso, la herramienta estrella para conocer su superficie ha sido el radar, que “ilumina” el terreno con microondas y reconstruye la textura y la geometría a partir del eco.

Aquí entra en juego Magellan, que entre 1990 y 1992 realizó un mapa global del planeta con SAR. Aquellos datos fueron una mina para identificar montañas, llanuras de lava, fracturas y canales volcánicos. Lo difícil es ir un paso más allá: detectar lo que podría estar vacío por dentro, algo que no se ve directamente, sino que se sospecha por señales indirectas.

La “claraboya” de Nyx Mons: un derrumbe que cuenta una historia

El punto de partida del nuevo estudio es una depresión o abertura superficial en Nyx Mons, descrita como una especie de “skylight” (una claraboya natural). En volcanología planetaria, este tipo de abertura suele interpretarse como el lugar donde el techo de un tubo se hundió, dejando una ventana al vacío subterráneo. Piensa en el asfalto de una carretera: si por debajo hay una cavidad y el soporte falla, aparece un socavón. La superficie te muestra el problema, aunque el hueco real esté escondido.

Según el equipo de Trento, al analizar con técnicas específicas las imágenes de radar de Magellan en zonas con indicios de colapsos localizados, la señal encaja con la presencia de un conduit subterráneo grande. Su interpretación es que se trata de un tubo de lava (también llamado “piroducto”), con dimensiones que, por comparación con los tubos conocidos, lo colocan en la liga de los gigantes.

Un detalle importante: los autores señalan que los datos disponibles permiten confirmar y medir con más seguridad la porción cercana a la abertura. El resto del posible conducto entra en el terreno de la hipótesis respaldada por la morfología del entorno y por la presencia de otros pozos similares en la zona.

Un tamaño fuera de escala: lo que sugieren las cifras

Hablar de un tubo de lava de casi un kilómetro de ancho suena exagerado si uno piensa en ejemplos terrestres, donde muchas cuevas volcánicas son recorribles a pie y su escala se mide en metros o decenas de metros. En el estudio se propone que, en Venus, el conducto identificado alcanza aproximadamente ese kilómetro de diámetro, con un techo robusto y un vacío profundo, al menos en el tramo mejor observado.

También aparece una idea que dispara la imaginación: el sistema podría prolongarse durante decenas de kilómetros. Basándose en el relieve, en la forma del terreno y en la distribución de otras depresiones, el equipo plantea que los conductos subterráneos podrían extenderse como mínimo unos 45 kilómetros. Es como encontrar una alcantarilla abierta en una calle y, al mirar el mapa, ver indicios de que el túnel continúa varias paradas más.

Por qué Venus podría “fabricar” tubos más grandes que los nuestros

La pregunta obvia es: ¿por qué Venus tendría tubos tan grandes? El estudio apunta a dos condiciones que juegan a favor. La primera es la gravedad, algo menor que la terrestre, lo que facilita que estructuras amplias se sostengan con menos “peso” tirando del techo. La segunda es su atmósfera, muchísimo más densa. En términos cotidianos, una atmósfera densa se comporta como una manta pesada que retiene calor. Para una colada de lava, eso puede ayudar a que se forme rápido una costra aislante en la superficie del flujo, preservando un canal interno por el que la lava siga circulando. Ese “tubo” queda como un conducto protegido: la lava fluye, el exterior se enfría y solidifica, y el interior mantiene el paso abierto.

Esta combinación encaja con lo que ya se sospecha del vulcanismo venusiano: canales de lava muy largos y grandes, rasgos volcánicos a escala colosal y un paisaje moldeado repetidamente por flujos. El posible tubo de Nyx Mons sería una pieza más de ese rompecabezas.

Lo que cambia para la exploración: de mirar la piel a intuir el interior

El valor del hallazgo no está solo en el titular de “caverna gigante”, sino en el método y en lo que abre de cara a las misiones futuras. Si con un archivo de radar de los años noventa se puede extraer una señal compatible con un tubo de lava, entonces los nuevos radares, más finos y más versátiles, podrían multiplicar las detecciones.

Aquí entran dos nombres clave: Envision (ESA) y VERITAS (NASA). Ambas misiones están pensadas para llevar instrumentos de radar capaces de obtener imágenes de mayor resolución que Magellan, lo que permite analizar con más detalle pequeñas depresiones, fracturas y rasgos que hoy quedan “borrosos”. En el caso de Envision, el plan incluye también un radar de penetración del subsuelo (un “sonar” para el terreno) que podría sondear cientos de metros hacia abajo. Eso es importante porque permitiría detectar conductos incluso cuando no hay una abertura clara en la superficie.

Dicho de forma sencilla: hasta ahora hemos leído Venus como quien mira un libro cerrado por la portada; los próximos radares aspiran a hojear algunas páginas internas. Si se confirma que existen redes de tubos de lava amplios, cambiaría la manera de entender cómo se enfría el planeta, cómo se transporta el magma y qué regiones podrían haber sido activas en tiempos relativamente recientes.

Venus, su volcanismo y la paciencia de los datos “viejos”

Hay otro aspecto bonito de esta historia: la ciencia no siempre necesita datos nuevos para dar pasos. A veces, lo que hace falta es volver con mejores herramientas y mejores preguntas. El equipo de Trento describe una técnica específica de análisis para identificar y caracterizar conductos cerca de “skylights” en imágenes de radar. Es un recordatorio práctico: un archivo como el de Magellan no es una foto fija, es un almacén de señales que puede revelar cosas distintas con cada generación de métodos.

El estudio no promete certezas absolutas sobre toda la extensión del tubo; marca lo que se puede medir y lo que se infiere, y propone el camino para confirmarlo. En exploración planetaria, esa prudencia es parte del oficio: como cuando oyes ruidos detrás de una pared, puedes intuir la tubería, pero necesitas herramientas para ver el recorrido completo.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí