5 de enero de 2026

El James Webb detecta indicios sólidos de atmósfera en una super-Tierra “imposible”: el caso de TOI-561 b

tecnologia espacial

Hay exoplanetas que se comportan como una sartén al rojo vivo: cuanto más cerca están del fuego, más difícil es que conserven nada “delicado” en la superficie. TOI-561 b encaja en ese perfil extremo. Es una super-Tierra (un planeta rocoso más grande o masivo que la Tierra) que completa una vuelta a su estrella en apenas 10,56 horas, lo que equivale a un “año” que cabe en media jornada. Su órbita es tan ajustada que se mueve a una distancia diminuta comparada con la de Mercurio al Sol, y eso dispara la radiación recibida.

Lo llamativo no es solo el calor, sino la edad del sistema. La estrella anfitriona se describe como muy antigua, de alrededor de 10.000 millones de años, dentro de una población vieja de la Vía Láctea asociada al disco grueso. En un escenario así, el manual clásico diría que un planeta pequeño y tan irradiado habría perdido su envoltura gaseosa hace muchísimo tiempo.

La sorpresa: una temperatura “demasiado baja” para ser roca desnuda

El giro de guion llega con las observaciones del Telescopio James Webb (JWST). En lugar de buscar directamente una firma química en tránsito (cuando el planeta pasa por delante de la estrella), el equipo midió la luz que proviene del lado diurno del planeta usando NIRSpec, el espectrógrafo de infrarrojo cercano del Webb. La técnica se apoya en el “eclipse secundario”: cuando el planeta pasa por detrás de la estrella, el brillo total del sistema cae un poco, y esa diferencia permite aislar la contribución del planeta.

Si TOI-561 b fuera una roca pelada, sin atmósfera capaz de redistribuir calor, su hemisferio diurno debería acercarse a unos 2.700 ºC. Sin embargo, el Webb encontró un valor más cercano a 1.800 ºC. Sigue siendo un infierno para cualquier intuición terrestre, pero es notablemente más frío de lo esperado para una superficie expuesta sin “amortiguación” gaseosa.

Una forma cotidiana de entenderlo: una bandeja metálica en el horno se calienta de manera muy agresiva; una bandeja cubierta por una capa que absorbe y mueve el calor (una “manta” dinámica de aire) puede cambiar el patrón térmico y lo que tú “ves” desde fuera. En astronomía, ese “ver” ocurre con fotones infrarrojos.

Por qué esto se considera la evidencia más clara en un exoplaneta rocoso

El estudio, publicado en The Astrophysical Journal Letters, presenta un espectro de emisión del lado diurno en el rango de 3 a 5 micras. Ese detalle importa porque en esas longitudes de onda ciertos gases y nubes pueden absorber o reflejar radiación, alterando el brillo emergente. El resultado, según el análisis comparado con modelos, es incompatible con la hipótesis de “roca desnuda” con alta significación estadística, lo que empuja hacia la idea de una atmósfera relativamente gruesa y rica en volátiles.

La palabra “volátiles” suena técnica, pero se puede bajar a tierra: son compuestos que, bajo ciertas condiciones, pasan con facilidad a fase gaseosa, como lo haría el vapor de agua en una cocina. En un planeta con posible océano de magma, esos volátiles podrían estar entrando y saliendo del interior como el vapor que se acumula y se renueva encima de una olla hirviendo, solo que aquí la “olla” es un mundo entero.

Un planeta menos denso de lo esperado: pista adicional

Otra pieza del rompecabezas es la densidad. TOI-561 b es rocoso, pero aparece menos denso de lo que esperaríamos si tuviera una composición tipo Tierra (con un núcleo de hierro significativo). El equipo contempla que su estrella, descrita como pobre en hierro y rica en elementos alfa, pudo dar lugar a planetas con una química interna distinta, quizá con un núcleo más pequeño o una estructura interior “exótica”.

Aun así, la densidad por sí sola no lo explica todo. Una atmósfera que “hincha” el radio observado puede hacer que el planeta parezca más grande para su masa y, por tanto, menos denso. Es como llevar un abrigo muy acolchado: el volumen aumenta aunque la persona dentro no haya cambiado. La clave es determinar cuánto de ese “acolchado” es gas y cuánto es roca.

Qué podría contener esa atmósfera y cómo enfría lo que vemos

Los modelos discutidos en comunicados de NASA y centros implicados apuntan a un escenario en el que hace falta una envoltura relativamente espesa para cuadrar las observaciones. La idea es que vientos intensos transporten calor hacia el lado nocturno, suavizando el contraste térmico. En paralelo, gases como el vapor de agua podrían absorber parte de la radiación infrarroja que saldría de la superficie o de capas inferiores, haciendo que el planeta “parezca” más frío al telescopio porque llega menos luz en ciertas longitudes de onda. Se baraja también la posibilidad de nubes de silicatos brillantes que reflejen radiación estelar y moderen la energía disponible.

Aquí conviene ser precisos: lo que se mide es el brillo infrarrojo y su forma espectral. Traducir eso a “hay agua” o “hay tal gas” exige más datos y un ajuste cuidadoso. El propio equipo plantea el trabajo futuro como un mapa térmico alrededor del planeta y restricciones más finas de composición con el conjunto completo de observaciones.

El gran misterio: cómo puede sobrevivir una atmósfera tan castigada

El punto más fascinante es el mecanismo de supervivencia. Un planeta pequeño y ultrairradiado debería perder gases por escape atmosférico con el tiempo. La hipótesis sugerida es un equilibrio dinámico entre el océano de magma y la atmósfera: mientras parte del gas escapa hacia el espacio, otra parte se repone desde el interior, y una fracción puede volver a disolverse en el magma. Es un ciclo de intercambio continuo, parecido a cómo un refresco con gas pierde burbujas al aire pero también puede retener CO₂ disuelto en el líquido según la presión y la temperatura; aquí, el “refresco” es lava y el “gas” es una mezcla volátil mucho más compleja.

En este marco, el planeta tendría que ser especialmente rico en volátiles comparado con la Tierra para mantener una envoltura apreciable durante miles de millones de años. Esa afirmación no es un adorno narrativo: es la implicación física directa de sostener un reservorio gaseoso bajo radiación intensa y durante tanto tiempo.

Qué aporta al estudio de mundos rocosos y por qué importa fuera del “morbo” del infierno

A primera vista, TOI-561 b no suena útil si lo que buscamos es habitabilidad. Su temperatura lo descarta como “gemelo” de la Tierra. El valor está en otro lado: si el Webb puede detectar y caracterizar una atmósfera en un exoplaneta rocoso tan extremo, significa que el umbral observacional se está moviendo hacia territorios donde antes solo había especulación. No se trata de vender milagros, sino de ampliar el catálogo de casos donde podemos poner a prueba la física de atmósferas, la geología y la evolución planetaria con datos reales.

También hay una lectura histórica: un sistema asociado al disco grueso podría ser una ventana a condiciones químicas tempranas de la galaxia. Si su estrella es realmente tan vieja y con esa metalicidad particular, estudiar planetas como este ayuda a entender qué tipos de mundos se formaban cuando la Vía Láctea era joven y el “menú” de elementos disponibles era distinto.

Lo siguiente, según los equipos, pasa por explotar el conjunto completo de observaciones continuas (más de 37 horas, cubriendo casi cuatro órbitas) para reconstruir cómo cambia la temperatura con la longitud y, con eso, acotar la circulación atmosférica y las propiedades de la capa gaseosa. En ciencia planetaria, tener un mapa térmico es como pasar de ver una foto borrosa a ver un vídeo: aparecen patrones, ritmos y pistas sobre el motor que mueve el sistema.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Nanoimanes que atacan el cáncer de hueso y ayudan a reconstruirlo

nanotecnologia

Tratar el cáncer de hueso suele parecerse a apagar un incendio dentro de una casa de madera: hay que eliminar el foco sin dañar la estructura que sostiene todo. Por eso resulta tan llamativo el enfoque que describe un equipo de investigación de Brasil y Portugal, recogido por New Atlas y publicado en la revista Magnetic Medicine: un material diminuto que combina dos funciones que durante años han sido difíciles de reunir en la misma pieza.

La idea se apoya en nanopartículas magnéticas de óxido de hierro recubiertas con vidrio bioactivo, formando nanocompuestos tipo “núcleo-caparazón”. El núcleo responde con fuerza a los campos magnéticos; la capa exterior, por su química, interactúa con el entorno para favorecer la regeneración ósea. Dicho de forma cotidiana: sería como usar un “microcalefactor” que calienta justo donde interesa y, cuando termina el trabajo duro, se queda como andamio para que el hueso vuelva a crecer.

La autora de correspondencia, Ângela Andrade (UFOP, Brasil), subraya que el reto histórico ha sido lograr alta magnetización sin sacrificar bioactividad. En su planteamiento, ambas propiedades conviven en el mismo material, lo que abre la puerta a una intervención con intención terapéutica y reparadora en un solo gesto.

Qué es la hipertermia magnética y por qué interesa en oncología

La hipertermia magnética se basa en un principio simple de explicar, aunque sofisticado de ejecutar: si ciertas partículas responden a un campo magnético alterno, pueden convertir esa energía en calor. En oncología, esa subida de temperatura se busca dentro del tumor para debilitar y destruir células cancerosas. Es como calentar una sartén por inducción, solo que la “sartén” es el tejido tumoral y la “inducción” se aplica desde fuera del cuerpo.

Según lo descrito en New Atlas y en el trabajo científico citado, el objetivo es que el calentamiento ocurra donde están las partículas, reduciendo el impacto en tejido sano. Un detalle importante es que este enfoque pretende minimizar daños colaterales: si las nanopartículas se concentran en el área tumoral, el calor se queda localizado, y el resto del organismo no recibe un “baño térmico” innecesario.

Esto no convierte la técnica en magia ni en solución inmediata para todos los pacientes. El control de la temperatura, la distribución de partículas, la duración de la exposición y la seguridad a largo plazo son factores que determinan si algo prometedor en el laboratorio se vuelve una herramienta clínica fiable. Lo relevante aquí es el intento de llevar la hipertermia más allá del “eliminar” y acercarla al “eliminar y reparar”.

El recubrimiento de vidrio bioactivo como “semilla” para que vuelva el hueso

El segundo pilar del avance está en el vidrio bioactivo, un material conocido por su capacidad de interactuar con fluidos corporales y fomentar la formación de minerales compatibles con el hueso. En los experimentos descritos, los investigadores expusieron estos nanocompuestos a fluidos corporales simulados y observaron la aparición rápida de apatitas, un grupo de fosfatos minerales similares a la parte inorgánica del tejido óseo.

Traducido a un ejemplo doméstico: piensa en cómo ciertas superficies favorecen que se adhiera la cal con el tiempo. Aquí la “adhesión” se busca a propósito y con un resultado deseable: que el entorno biológico empiece a construir una capa mineral que facilite la integración con el hueso. Ese proceso de mineralización es clave si se quiere que, tras atacar al tumor, el cuerpo tenga una base sobre la que reconstruir.

En el estudio se compararon formulaciones y, según Andrade, la que tenía mayor contenido de calcio mostró dos ventajas: mineralizó más rápido y tuvo una respuesta magnética más fuerte. Esa combinación es interesante porque apunta a un equilibrio práctico entre “calentar bien cuando toca” y “servir de soporte biológico después”.

Un enfoque que intenta proteger el tejido sano

Uno de los puntos que más llaman la atención en el relato de New Atlas es la intención explícita de preservar células sanas: el calentamiento se produce donde están las partículas, y el planteamiento parte de que las nanopartículas magnéticas no se introducen en células saludables de la misma manera que en el entorno tumoral. En la práctica, esto depende de cómo se administren, cómo se distribuyan y de la biología del tumor, así que conviene leerlo como una meta del diseño más que como una garantía universal.

Aun así, el marco conceptual es atractivo: un procedimiento mínimamente invasivo en el que el médico coloca o concentra el material en la zona afectada, aplica un campo magnético alterno para inducir hipertermia magnética y, tras el daño tumoral, el recubrimiento bioactivo queda trabajando como plataforma para la regeneración ósea. Es el tipo de propuesta que intenta reducir pasos terapéuticos y, con ello, parte de la carga física y emocional del tratamiento.

Por qué importa en un cáncer poco frecuente pero muy duro

El cáncer de hueso no es de los diagnósticos más comunes, pero su impacto puede ser enorme. En el texto de New Atlas se citan cifras para Estados Unidos en 2025 que lo sitúan alrededor del 0,2% de los nuevos casos y del 0,4% de las muertes por cáncer. Esos porcentajes, aunque pequeños, no describen el sufrimiento que puede acompañarlo: dolor, dificultad para mover extremidades, riesgo de fracturas y tratamientos complejos que, muchas veces, combinan cirugía, quimioterapia y radioterapia.

También se menciona una tasa de mortalidad a cinco años que ronda el 31,5% en los casos citados, lo que sirve para dimensionar el desafío. Cuando el tumor afecta al hueso, no solo se trata de eliminar células malignas; se trata de mantener la función mecánica del cuerpo. El hueso es la estructura portante, como las vigas de un edificio: si se retiran sin reemplazo, el resto sufre.

Ahí encaja la promesa de un material “multifunción”: atacar el tumor y crear condiciones para recuperar tejido. No es solo una cuestión de curación biológica, también lo es de movilidad, independencia y calidad de vida.

Qué lo diferencia de otras estrategias magnéticas

El magnetismo lleva tiempo asomándose a la oncología en diferentes formas. New Atlas recuerda ejemplos como nanosensores magnéticos para detectar biomarcadores, nanopartículas que se calientan dentro de tumores, o incluso semillas magnéticas guiables con ayuda de técnicas de imagen como la resonancia magnética. Es un campo con mucha creatividad, porque el magnetismo tiene una ventaja: permite “actuar a distancia” sin necesidad de abrir el cuerpo para cada ajuste.

Lo que este trabajo intenta aportar es la combinación real de dos capacidades en el mismo material: hipertermia magnética con una respuesta potente y, a la vez, bioactividad que favorezca mineralización y compatibilidad con el hueso. En términos simples, hay propuestas que se comportan como un buen “arma de precisión” contra el tumor; aquí se quiere que esa misma herramienta haga de “yeso inteligente” después.

Lo que falta para pasar del laboratorio a la consulta

Entre una demostración en condiciones controladas y un tratamiento disponible en hospitales suele haber un camino largo. En este caso, es razonable pensar en varias preguntas críticas: cómo se administra el material y se asegura su localización; cómo se controla el aumento de temperatura para no dañar tejido cercano; qué ocurre con las partículas con el tiempo; cómo responde el sistema inmunitario; qué variaciones aparecen entre pacientes; qué márgenes de seguridad se exigen para aprobar el procedimiento.

El propio equipo investigador, según recoge New Atlas, destaca que el estudio ayuda a entender cómo la química y la estructura de la superficie influyen en el rendimiento de estos biomateriales, abriendo perspectivas para materiales multifuncionales “seguros y eficaces” en uso clínico. La frase es importante por lo que implica: seguridad y eficacia no se declaran, se demuestran con evidencia acumulada.

Por ahora, la noticia deja una imagen potente: un enfoque que intenta convertir un tratamiento en dos acciones coordinadas, como si un mismo dispositivo pudiera apagar el incendio y empezar la reconstrucción sin cambiar de herramienta. La ciencia médica avanza muchas veces así, encadenando mejoras prácticas que, con el tiempo, se convierten en cambios reales para pacientes.


La noticia Nanoimanes que atacan el cáncer de hueso y ayudan a reconstruirlo fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.


☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Los últimos del open source: los proyectos que aún mantienen viva la web libre y gratuita tal y como la soñamos

Los últimos del open source: los proyectos que aún mantienen viva la web libre y gratuita tal y como la soñamos

Internet nunca había tenido tantos usuarios ni tanto contenido y, sin embargo, cada vez se parece más a un puñado de pantallas repetidas. Gran parte de lo que leemos, vemos o buscamos pasa por los algoritmos de unas pocas grandes plataformas, que compiten por nuestra atención y convierten muchos de nuestros clics en datos medibles. 

En medio de ese paisaje estandarizado sobreviven proyectos que funcionan con una lógica distinta, como Wikipedia, OpenStreetMap o el Internet Archive, que no se financian con anuncios, no venden perfiles detallados de sus usuarios y siguen apostando por una idea sencilla y exigente a la vez: que la información y el conocimiento deben ser un bien compartido.

La web no empezó siendo un escaparate de grandes plataformas, sino un laboratorio disperso y casi artesanal. En los primeros años noventa, quienes publicaban en la web lo hacían desde servidores universitarios, institucionales o domésticos, utilizando estándares abiertos como HTML, HTTP y las direcciones URI. Eran piezas fundamentales de una red diseñada para que la información pudiera circular sin depender de propietarios tecnológicos ni sistemas cerrados. 

Esa arquitectura técnica alimentó la idea de que Internet podía ser un espacio abierto y accesible.

Internet no nació para vender datos: el mercado encontró cómo hacerlo

Aquel entusiasmo, sin embargo, convivía con límites evidentes. Como decimos, la participación estaba concentrada en universidades, centros de investigación y una minoría de entusiastas con conocimientos técnicos y recursos. Las cifras de la época muestran que apenas una fracción mínima de la población mundial tenía acceso a Internet, lo que significa que esa supuesta apertura era real en términos tecnológicos, pero no socialmente extendida.

A partir de mediados de los noventa, y sobre todo a finales de esa década, Internet empezó a recibir mayor atención. Las empresas vieron potencial económico en una red que conectaba a millones de personas y que permitía distribuir información y servicios a escala global. Surgieron proveedores comerciales, navegadores populares y los primeros portales, y con ellos llegó la lógica del mercado: había tráfico, había usuarios y, por tanto, había oportunidades de negocio. El acceso a la web dejó de ser un experimento y comenzó a convertirse en una actividad masiva, medible y rentable.

Ese cambio impulsó un modelo que se consolidaría con rapidez: la publicidad segmentada. No se trataba solo de mostrar anuncios, sino de analizar el comportamiento de los usuarios y obtener datos sobre sus intereses, hábitos y preferencias. Fue el momento en que la atención humana empezó a adquirir un valor económico concreto. Los clics, el tiempo de permanencia y los patrones de navegación dejaron de ser rastros técnicos y se convirtieron en materia prima para un nuevo mercado digital.

En ese contexto cada vez más comercializado, algunos proyectos mantuvieron otra manera de entender Internet. No nacieron para captar tráfico ni para competir por atención, sino para construir infraestructuras públicas de información. Wikipedia se lanzó en 2001 con un objetivo que entonces parecía poco realista: crear una enciclopedia libre, escrita colectivamente y disponible para cualquiera con conexión a Internet. 

OpenStreetMap inició su camino en 2004 con una idea similar, pero aplicada al territorio, documentando de forma colaborativa las calles, caminos y lugares del mundo. Internet Archive llevaba desde 1996 preservando páginas, documentos, audio y vídeo para que no desaparecieran con el paso del tiempo.

Internet Archive

Dos décadas después, esos proyectos no solo siguen activos, sino que son piezas centrales de la web actual. Millones de personas consultan Wikipedia cada día para comprobar un dato, entender un contexto o aprender algo nuevo. Los mapas de OpenStreetMap alimentan desde aplicaciones móviles hasta servicios públicos y proyectos humanitarios. Y el Internet Archive se ha convertido en memoria digital de larga duración, un lugar donde la web no se borra, sino que se conserva. Son iniciativas construidas colectivamente que han llegado a tener impacto global sin adoptar el modelo comercial dominante.

Wikipedia se sostiene gracias a millones de pequeños donantes, la mayoría son lectores que aportan pequeñas cantidades, habitualmente en torno a diez euros al año. La Fundación Wikimedia gestiona esos recursos y mantiene la infraestructura técnica, incluidos los servidores, el desarrollo del software y los sistemas de seguridad. También administra el Wikimedia Endowment, un fondo independiente creado en 2016 para garantizar que el proyecto pueda seguir funcionando incluso si un año la recaudación cae. Desde 2021, existe además Wikimedia Enterprise, una vía para que organizaciones que reutilizan contenidos de forma intensiva, como motores de búsqueda o empresas de inteligencia artificial, accedan a versiones estructuradas y estables de los datos.

Financiados a lomos de la gente

OpenStreetMap tiene una estructura distinta y mucho más descentralizada. La Fundación OpenStreetMap es responsable de los servidores y de la coordinación general, pero gran parte del trabajo procede de comunidades locales que organizan eventos, formación y tareas de mapeo colaborativo. La financiación llega en forma de cuotas voluntarias, patrocinios técnicos y apoyo de organizaciones que utilizan los datos en proyectos logísticos, humanitarios o educativos. 

En el caso de Internet Archive, los costes recaen sobre una infraestructura que almacena millones de páginas, documentos y archivos, financiada mediante donaciones individuales, subvenciones de fundaciones y organismos públicos, y servicios de archivado y digitalización para instituciones.

Donaciones Web Archive

Cuando hablamos de proyectos abiertos, podemos confundir apertura con ausencia de organización. Sin embargo, su funcionamiento se basa en reglas explícitas y estructuras distribuidas. Wikipedia lo ejemplifica mejor que nadie. Las decisiones editoriales no las toma un grupo reducido, sino miles de personas que aplican normas públicas como punto de vista neutral o contenido verificable. No importa el perfil de quien contribuye, sino si su aportación cumple esos criterios. Los administradores pueden intervenir para proteger páginas o resolver disputas, pero su papel es principalmente técnico y de mantenimiento, sin una autoridad editorial jerárquica sobre los contenidos.

OpenStreetMap funciona con una lógica similar, pero sobre datos geográficos: la información se construye desde lo local y se revisa colectivamente para garantizar su coherencia. Hay comunidades regionales que coordinan tareas, organizan encuentros y definen prácticas, pero la base sigue siendo abierta. En el caso de Internet Archive, el proceso no es tanto de edición como de catalogación y preservación, y la colaboración externa se centra en mejorar la calidad de los registros y evitar la pérdida de documentos digitales.

Convivir con los gigantes tecnológicos significa asumir que buena parte del acceso a estos proyectos llega a través de ellos. Una gran parte de los lectores entra en Wikipedia desde un buscador, no escribiendo la dirección a mano, y muchos mapas basados en OpenStreetMap se presentan dentro de aplicaciones comerciales donde la marca visible es otra. Internet Archive, por su parte, actúa como un almacén de referencia al que acuden periodistas, investigadores y organizaciones, pero el usuario medio apenas es consciente de que hay una infraestructura independiente sosteniendo todo eso.

Convivir con los gigantes tecnológicos significa asumir que buena parte del acceso a estos proyectos llega a través de ellos.

Esa dependencia crea tensiones nuevas. Los modelos de inteligencia artificial y los grandes servicios de búsqueda reutilizan a gran escala contenidos y datos generados por comunidades voluntarias, a veces sin una visibilidad clara de la fuente original. Eso incrementa la carga sobre los servidores, complica la planificación de infraestructuras y puede reducir la exposición directa de los proyectos ante el público general, justo el público del que dependen para seguir recibiendo apoyo. La creación de servicios como Wikimedia Enterprise forma parte de esa adaptación: ordenar el acceso masivo sin renunciar a la misión original.

El futuro de estos proyectos está marcado por un desafío constante: seguir siendo útiles sin renunciar a sus principios fundacionales. La inteligencia artificial, los buscadores avanzados y los sistemas que reutilizan información de forma automática aumentan la dependencia de fuentes abiertas, pero también pueden ocultarlas al usuario, reduciendo su visibilidad pública. Wikipedia, OpenStreetMap o Internet Archive se enfrentan a un escenario donde su contenido se consume más que nunca, pero en muchos casos sin que quienes lo consultan sepan de dónde procede. Esa invisibilidad no pone en riesgo su utilidad, pero sí puede afectar a su sostenibilidad, especialmente si se reduce el apoyo directo de la comunidad.

Los proyectos abiertos siguen ahí, pero tampoco están garantizados. Requieren infraestructuras estables, mecanismos para mantener la calidad y comunidades activas que sigan aportando y revisando. Son parte de la arquitectura de conocimiento de Internet, y la cuestión que queda abierta es si la sociedad digital será capaz de seguir sosteniéndolos como bienes comunes, o si acabarán integrados de forma silenciosa en servicios comerciales que solo utilizan sus datos, pero no sus valores.

Imágenes | Xataka con Gemini 3 | Captura de pantalla

En Xataka | Have I been Trained: cómo saber si han usado tus datos y trabajos para entrenar a una inteligencia artificial

-
La noticia Los últimos del open source: los proyectos que aún mantienen viva la web libre y gratuita tal y como la soñamos fue publicada originalmente en Xataka por Javier Marquez .



☞ El artículo completo original de Javier Marquez lo puedes ver aquí

El LHC apaga motores para ponerse más fuerte: qué cambia en CERN hasta 2030

noticia3_antimateria_cern_final

Cuando se habla de que el Gran Colisionador de Hadrones (el LHC) “se apaga”, mucha gente imagina un adiós definitivo. Lo que ocurre es más parecido a llevar un coche de competición al taller para cambiarle medio motor, reforzar la suspensión y reprogramar la electrónica: no compite durante un tiempo, pero vuelve con más capacidad.

El LHC es ese anillo subterráneo de unos 27 kilómetros, en la frontera entre Suiza y Francia, que acelera protones casi a la velocidad de la luz para provocar colisiones de partículas. Esas colisiones recrean, de forma controlada, condiciones parecidas a las del universo muy temprano. En 2012, el acelerador se hizo mundialmente famoso por la detección del bosón de Higgs, una pieza clave del modelo estándar que ayuda a explicar por qué las partículas tienen masa, un hallazgo confirmado por los experimentos ATLAS y CMS en el CERN.

El cierre temporal, según se ha explicado en medios como The Guardian y en comunicaciones del propio CERN, no busca frenar la ciencia, sino preparar un salto técnico que multiplique el rendimiento del acelerador durante la próxima década.

Por qué parar si “funciona bien”

El motivo principal no es que el LHC vaya mal. Al contrario: los responsables insisten en que está funcionando de forma excelente y acumulando datos valiosos. El problema, si se le puede llamar así, es que la ciencia de frontera se parece a intentar escuchar un susurro en una estación de tren: si subes la “señal” (más colisiones útiles y mejor calidad de datos), aumentan las opciones de captar fenómenos raros que hoy pasan desapercibidos.

Para lograrlo, el CERN prepara una actualización profunda que convertirá al acelerador en el LHC de alta luminosidad (High-Luminosity LHC, o HL-LHC). “Luminosidad”, en este contexto, no tiene que ver con brillo, sino con cuántas colisiones efectivas se producen. Dicho de manera cotidiana: si hoy estás pescando con una caña en un lago enorme, el objetivo es pasar a una red mucho más eficiente. No garantiza que salga el pez “legendario”, pero incrementa mucho la probabilidad.

Qué es el HL-LHC y qué promete

La promesa técnica del HL-LHC es multiplicar por alrededor de diez la cantidad de colisiones útiles a lo largo del tiempo respecto al LHC original. Eso abre la puerta a mediciones mucho más precisas y a búsquedas de señales extremadamente raras. En física de partículas, esas rarezas importan: el modelo estándar encaja muy bien con los datos, pero no lo explica todo.

Con más datos, los experimentos podrán examinar con lupa propiedades del Higgs: cómo se desintegra, con qué frecuencia lo hace en cada canal, si se comporta exactamente como predice la teoría o si hay pequeñas desviaciones. Esas desviaciones, si aparecen, serían como encontrar un tornillo que no encaja en un mueble supuestamente perfecto: no te dice todavía qué pieza falta, pero confirma que algo no cuadra del todo.

El trabajo no es sólo “apretar un botón”. Implica actualizar imanes, componentes superconductores, sistemas de enfoque de haces y mejoras en detectores para manejar una avalancha mayor de datos sin perder calidad. También requiere infraestructura de computación y almacenamiento más robusta, porque cada mejora en el acelerador tiene un coste “invisible”: gestionar y analizar lo que se registra.

Cinco años sin colisiones no significan cinco años sin física

Una idea fácil de malinterpretar es pensar que, si el acelerador se detiene, los físicos se quedan sin nada que hacer. En realidad, una parte importante del trabajo ocurre cuando ya existe el dato: limpiar señales, calibrar detectores, cruzar mediciones, comparar con simulaciones y publicar resultados revisados.

Mark Thomson, que asumió como director general del CERN en 2026, ha transmitido un mensaje tranquilizador en entrevistas recogidas por The Guardian: el parón no dejará a la comunidad sin tareas, porque el volumen de datos acumulado y el potencial de nuevos análisis seguirán generando resultados. En términos domésticos, es como haber grabado durante meses vídeos de una cámara de seguridad y sentarte ahora a revisarlos con herramientas mejores: la acción ya ocurrió, pero todavía puedes descubrir detalles que antes no veías.

Esa continuidad importa por dos motivos. Primero, porque los resultados del LHC no se agotan rápido: nuevas técnicas de análisis pueden extraer información adicional de datos ya tomados. Segundo, porque la preparación para el HL-LHC también requiere validar métodos, optimizar algoritmos y reforzar la colaboración entre equipos internacionales.

El calendario: por qué se habla de 2030

El proyecto de alta luminosidad lleva años planificándose y se apoya en un calendario largo. Según las previsiones mencionadas en prensa y en el propio entorno del CERN, el objetivo es que el HL-LHC esté operativo a mediados de 2030. Es un periodo largo para el público general, pero razonable si se piensa en la escala industrial de un acelerador: hablamos de un sistema de 27 kilómetros con tecnología superconductora y tolerancias extremas.

También hay un elemento de oportunidad: estos parones se aprovechan para hacer cambios que no se pueden improvisar sin detener el conjunto. Es más eficiente parar “de verdad”, intervenir a fondo y volver con un sistema que rinda durante años, que hacer microparadas constantes que fragmentan el trabajo.

Mientras tanto, el debate del “siguiente LHC” ya está sobre la mesa

El parón llega en un momento en el que el CERN también mira más allá del LHC. Se discute el Future Circular Collider (el FCC), un colosal acelerador propuesto de unos 90 kilómetros de circunferencia. La idea, según se ha descrito en The Guardian y en documentos conceptuales del propio CERN, contempla etapas: una primera máquina para colisionar electrones y positrones, seguida décadas después por una fase de protones de mayor energía.

La comparación cotidiana aquí es clara: el LHC sería una autopista muy avanzada; el FCC sería construir una nueva circunvalación gigantesca con carriles extra, diseñada para sostener el tráfico científico de la segunda mitad del siglo. El argumento a favor es que, cuando quieres explorar energías más altas y producir partículas más pesadas (o procesos más raros), necesitas infraestructura mayor.

Coste, prioridades y la gran pregunta: ¿es la mejor vía para entender el universo?

El FCC no está garantizado. Su coste estimado se ha cifrado en decenas de miles de millones de euros/dólares en distintas discusiones públicas, una magnitud que obliga a acuerdos internacionales amplios. También existe un debate científico legítimo: si las grandes respuestas sobre materia oscura y energía oscura vendrán de aceleradores más grandes o de otras estrategias, como detectores subterráneos, telescopios cosmológicos o experimentos de precisión.

No es una discusión de “aceleradores sí o no”, sino de equilibrio. Un gran colisionador es una herramienta potente para buscar nueva física de forma directa y medir con precisión extrema. A la vez, otras ramas pueden complementar o incluso adelantarse en ciertas preguntas. Si la ciencia fuera una caja de herramientas, el acelerador sería una llave inglesa enorme: imprescindible para algunos tornillos, inútil para otros. Lo difícil es decidir cuántos recursos dedicas a cada herramienta sin dejar coja la investigación.

Thomson, en sus declaraciones públicas, se muestra favorable a seguir empujando la frontera con máquinas grandes, defendiendo que todavía queda mucho por descubrir en el nivel más fundamental de la realidad. Esa postura convive con la prudencia de quienes piden evidencias más claras de qué tipo de “nueva física” merece una inversión tan masiva.

Qué debería mirar el público durante el apagón

Aunque el LHC se detenga, el periodo hasta 2030 puede ser fértil en anuncios científicos provenientes de análisis atrasados, mejoras metodológicas y resultados de precisión. Si el HL-LHC cumple lo prometido, la década posterior podría ser el equivalente a pasar de una cámara de fotos normal a una de alta resolución: no cambia el mundo que fotografias, pero te permite ver grietas, texturas y matices que antes eran invisibles.

La clave, para no caer en expectativas infladas, es entender que estos proyectos no suelen dar “un descubrimiento” cada semana. Su valor real está en la acumulación: millones de colisiones que, interpretadas con paciencia, acaban moviendo la frontera del conocimiento. El CERN vive de esa constancia, como un observatorio que mira el cielo noche tras noche, sabiendo que la rareza estadística es parte del juego.


La noticia El LHC apaga motores para ponerse más fuerte: qué cambia en CERN hasta 2030 fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.


☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Tras Venezuela, Estados Unidos ya está diciendo alto y claro cuál es su siguiente objetivo: Groenlandia

Tras Venezuela, Estados Unidos ya está diciendo alto y claro cuál es su siguiente objetivo: Groenlandia

El mundo mira a Venezuela, pero buena parte de la Europa, los aliados de la OTAN y más concretamente Dinamarca tienen un ojo (o los dos) puesto en otro punto geográfico: Groenlandia. La captura de Nicolás Maduro abre un amplísimo abanico de preguntas sobre el futuro de Venezuela, pero también ha azuzado las incógnitas que desde hace meses rodean el de Groenlandia, geográficamente situada en Norteamérica, aunque a nivel político depende de Dinamarca. 

Que Donald Trump aspira a que Groenlandia quede bajo el dominio de Washington no es nuevo, pero sus palabras adquieren un nuevo sentido tras lo ocurrido el sábado. Sobre todo porque el propio líder republicano ha recordado en las últimas horas que no renuncia a la isla: "La necesitamos, sin duda".

Más allá de Venezuela. Que Venezuela es la protagonista del arranque de 2026 nadie lo duda. La operación lanzada por EEUU el sábado y que culminó con la captura de Maduro abre un amplio abanico de incógnitas sobre el futuro de la nación sudamericana. Sobre todo después de que el propio Trump haya deslizado que está decidido a mantener el país bajo su tutela "hasta que haya una transición fiable", un proceso para el que no parece confiar en María Corina Machado.

Lo ocurrido en Venezuela ha agitado sin embargo algunas cuerdas que van mucho más allá de América. La principal probablemente es la relacionada con Groenlandia. Trump ambiciona que EEUU controle la isla, crucial por su valor geoestratégico y recursos mineros. Eso no es nada nuevo. Lo ha dicho en muchas ocasiones, antes incluso de jurar el cargo. La campaña del sábado da sin embargo un barniz nuevo a esa pretensión, sobre todo porque hay quien ya advierte que EEUU ha demostrado que está dispuesto saltarse el derecho internacional.

Miller Click en la imagen para ir al tweet.

"SOON". Lo anterior bastaría para agitar las aguas diplomáticas en torno a Groenlandia, pero es que el propio Trump (y su entorno) se han encargado en las últimas horas de dejar claro que no renuncian a Groenlandia. El primer mensaje en esa dirección lo lanzó el sábado la podcaster ultraconservadora Katie Miller, quien publicó un tuit en el que mostraba un mapa de Groenlandia coloreado con la bandera de EEUU y un mensaje tan simple como rotundo: "SOON", 'pronto'. 

El tuit, que supera los 28 millones de visualizaciones, causó revuelo porque Miller no es una simple influencer de la esfera republicana y MAGA. Durante el primer mandato del republicano desempeñó un rol relevante en el Departamento de Seguridad Nacional y a día de hoy sigue siendo la esposa de Stephen Miller, una figura influyente dentro del equipo de Trump en la Casa Blanca. 

De ahí que Dinamarca haya dado una relevancia especial a su tuit. Solo unas horas después de que Miller lo publicara el embajador danés en EEUU, Jesper Moller Sorensen, se encargó de responderle por la misma vía (X) para dejar claro que Washington y Copenhague son aliados y Groenlandia ya está integrada en la OTAN. "Esperamos pleno respeto a la integridad territorial de Dinamarca".

"La necesitamos". Miller no ha sido la única voz MAGA en hablar sobre Groenlandia. Por si aún hubiera dudas sobre la postura de la Casa Blanca lo ha hecho también el propio Trump. El domingo, en una entrevista con The Atlantic, el republicano dejó claro que sus aspiraciones sobre Groenlandia siguen siendo tan firmes como hace un año, sino más. De hecho, lejos de suavizar el tono tras los múltiples roces con Dinamarca, Trump ha ido subiendo poco a poco el tono.

Durante la entrevista el republicano insistió en que no renunciará a la isla y recordó que ahora mismo está "rodeada de barcos rusos y chinos". "Necesitamos Groenlandia, sin duda. La necesitamos para la defensa", recalcó, tajante.

¿Solo palabras? Esa es la incógnita que queda botando tras lo ocurrido el sábado en Venezuela, un potente despliegue militar que se saldó con la captura de Maduro y que algunos expertos y países ven cuestionable desde un punto de vista legal, cuando no directamente contrario a la legislación internacional. En el caso de Groenlandia además EEUU no se ha limitado solo a lanzar mensajes.

A finales de diciembre Trump nombró al gobernador del estado de Luisiana como enviado especial de EEUU para Groenlandia, una decisión que causó malestar en el Ejecutivo danés. El escogido, Jeff Landry, no es solo el gobernador de Luisiana. Es además un aliado MAGA que, recién asumido su puesto de enviado especial, proclamó en X que su meta es que "Groenlandia forme parte de EEUU".

Landry Click en la imagen para ir al tweet.

"Basta de insinuaciones". Trump y su entorno no son los únicos que han alzado la voz para hablar de Groenlandia. A este lado del Atlántico lo ha hecho también (y con rotundidad creciente) la propia Dinamarca a través de su primera ministra, Mette Frederiksen: "Tengo que decirle esto a EEUU: no tiene ningún sentido hablar de la necesidad de que EEUU se apodere de Groenlandia. Le insto de forma encarecida a que cese las amenazas contra un aliado cercano". 

Su voz se suma a la del embajador Moller Sorensen, quien recordó en X que Groenlandia ya forma parte de la OTAN, por lo que está integrada en la misma alianza defensiva que EEUU. Más rotundo incluso ha sido el primer ministro de Groenlandia, Jens Frederik Nielsen: "Ya está bien. Basta de presiones. Basta de insinuaciones. Basta de fantasías de anexión". Una encuesta reciente ha revelado  que el 85% de los groenlandeses no quieren que su isla se integre en EEUU.

¿La nueva Doctrina Monroe? Como recuerda Financial Times, el propio Trump ha deslizado que la operación de Venezuela va más allá de esa nación y se enmarca en un concepto más amplio de "defensa hemisférica" que refuerza el rol de Washington en el continente americano. Con ese telón de fondo, Groenlandia se encuentra en una posición compleja: está situada geográficamente en América del Norte, pero a nivel administrativo y político está ligada a Dinamarca. 

El cuadro se completa además con su importante rol geoestratégico y riqueza minera, lo que abre una nueva pregunta: ¿Apostará la administración Trump por una nueva Doctrina Monroe, la postura asumida por EEUU en tiempos de James Monroe y que abogaba por que las potencias extranjeras del resto del mundo se mantuvieran al margen de los asuntos políticos del continente Americano?

Imágenes | Magnus Mandrup (Unsplash) y U.S. Secretary of War (Flickr)

En Xataka | Alguien apostó 30.000 dólares a que Maduro caía la noche anterior a que cayera. Ha ganado 400.000 dólares

-
La noticia Tras Venezuela, Estados Unidos ya está diciendo alto y claro cuál es su siguiente objetivo: Groenlandia fue publicada originalmente en Xataka por Carlos Prego .



☞ El artículo completo original de Carlos Prego lo puedes ver aquí