10 de marzo de 2026

El Pentágono etiquetó a Anthropic como un riesgo para la seguridad nacional. Así que Anthropic ha demandado al Pentágono

El Pentágono etiquetó a Anthropic como un riesgo para la seguridad nacional. Así que Anthropic ha demandado al Pentágono

El culebrón entre Anthropic y el Pentágono tiene un nuevo capítulo (y ya van...). Después deln tira y afloja de las últimas semanas, Anthropic se plantó y eso acabó provocando que EEUU metiera a la empresa en la lista negra. A Anthropic no le ha hecho ninguna gracia.

Qué ha pasado. Anthropic ha demandado al Departamento de Defensa (o de guerra) de EEUU, calificando la decisión de meterlos en la lista negra "sin precedentes e ilegal" y argumentando que causarán un daño irreparable a la empresa. . En declaraciones a Fortune, un portavoz de Anthropic ha asegurado que siguen comprometidos en proteger la seguridad nacional y quieren buscar una solución, pero que "es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios". La administración no ha hecho declaraciones sobre esta demanda. 

Mucha pasta en juego. Al meter a Anthropic en la lista negra, el gobierno impide que  los contratistas y proveedores de defensa usen Claude en sus actividades relacionadas con el Pentágono. Además, Trump ordenó que todo el gobierno deje de usar la IA de Anthropic. La empresa afirma que ya se están cancelando contratos con el gobierno y otros contratos privados están en peligro. El director comercial de Anthropic, Paul Smith, ha asegurado que hay un cliente que ya ha cambiado Claude por otra IA generativa. Sólo este contrato les hará perder al menos 100 millones de dólares.

Dudas sobre la legalidad. Anthropic dice que la jugada del gobierno no es legal ¿tienen razón? Según los expertos jurídicos de Lawfare, la etiqueta de "riesgo para la cadena de suministro" no resistirá el escrutinio judicial. El motivo principal es que esta designación está pensada para adversarios extranjeros, como sucedió con Huawei. La definición que hace la ley es "el riesgo de que un adversario pueda sabotear o subvertir un sistema cubierto", no dice nada de usarlo como castigo a una empresa nacional por un desacuerdo. Según Lawfare, las declaraciones de Trump y el secretario de defensa "enmarcan la acción como un castigo ideológico a un enemigo político".

El desacuerdo. El origen de esta escalada está en las líneas rojas que puso Anthropic Básicamente, la empresa se negó a que se pudiera usar su modelo para la vigilancia masiva de ciudadanos y especialmente el desarrollo de armas letales sin supervisión humana. La preocupación es fundamentada: un soldado puede negarse a cumplir una orden ilegal, una IA no.

Al Pentágono no le gustan las líneas rojas (de otros, claro) y exigían poder usar su tecnología sin límites. En palabras de Trump en un post de Truth Social: "Nosotros decidiremos el destino de nuestro país, NO una empresa de inteligencia artificial radical de izquierda fuera de control dirigida por personas que no tienen ni idea de cómo es el mundo real".

Mientras tanto OpenAI... Poco después de que Anthropic fuera incluida en esa lista negra, el gobierno encontraba una nueva candidata para llevar a cabo sus planes: OpenAI. Según la empresa de Sam Altman, su desarrollo tiene más salvaguardas y eh, tranquis, no es para tanto. Lo que le ha seguido es una crisis de imagen para ChatGPT, con dimisiones y  desinstalaciones masivas de usuarios que se han pasado a Claude. Pero no nos engañemos, aunque Anthropic haya ganado la batalla de la opinión pública, si EEUU mantiene el pulso, el futuro pinta bastante negro para los de Amodei.

En Xataka | Anthropic se ha convertido en la Apple de nuestra era y OpenAI en nuestra Microsoft: una historia de amor y odio

Imagen | Anthropic (editada)

-
La noticia El Pentágono etiquetó a Anthropic como un riesgo para la seguridad nacional. Así que Anthropic ha demandado al Pentágono fue publicada originalmente en Xataka por Amparo Babiloni .



☞ El artículo completo original de Amparo Babiloni lo puedes ver aquí

La informática encuentra un aliado en los hongos

La computación fúngica explora una idea que hasta hace poco parecía ciencia ficción: utilizar redes de hongos como soporte para procesar información. Investigadores de distintas universidades están estudiando cómo el micelio —la red subterránea de filamentos de los hongos— puede funcionar como arquitectura computacional, con aplicaciones potenciales en sensores ambientales, materiales inteligentes y sistemas electrónicos sostenibles.

El interés por esta línea de investigación surge en un contexto global donde la industria tecnológica busca alternativas más sostenibles al silicio, cuya producción requiere grandes cantidades de energía, agua y minerales críticos.

La computación biológica no es una idea imposible. Lleva décadas en desarrollo. En los años 90 ya se cultivaron neuronas para controlar robots simples, y desde los años 70 sabemos que los hongos presentan propiedades comparables a las de las neuronas”, explica el ingeniero neuronal John Larocco, investigador del Instituto de Sostenibilidad de la Universidad Estatal de Ohio (Estados Unidos).

Redes vivas que procesan información

Uno de los principales impulsores de esta disciplina es el científico Andrew Adamatzky, director del Laboratorio de Computación No Convencional de la Universidad del Oeste de Inglaterra, en Bristol.

En la década de 2010, Adamatzky observó que el moho mucilaginoso Physarum polycephalum generaba patrones eléctricos complejos, comparables a los potenciales de acción presentes en las neuronas. Ese descubrimiento abrió la puerta a investigar si otros organismos, como los hongos, podían mostrar comportamientos eléctricos similares.

Registro de la actividad eléctrica del micelio (la “red de raíces” de los hongos), que se comporta de manera parecida a las neuronas en el cerebro. /Andrew Adamatzky
Montaje experimental preparado para medir cómo los hongos pueden almacenar y transmitir señales eléctricas, un fenómeno llamado memfracción. Imagen, Andrew Adamatzky

A partir de 2018 comenzó a estudiar el potencial computacional del micelio.

Para ello, los investigadores insertan electrodos en sustratos colonizados por hongos y registran su actividad eléctrica de manera continua. Luego analizan los datos con software especializado, controlando variables como humedad, temperatura o luz para asegurar que las señales provienen del micelio.

Uno de los hallazgos más llamativos es que los circuitos fúngicos pueden adaptarse a estímulos repetidos, mostrando un comportamiento comparable —aunque no idéntico— a la plasticidad neuronal.

Cuando se les aplica electricidad, modifican su resistencia y su forma de conducir la corriente según estímulos previos. En términos técnicos, se dice que poseen propiedades memristivas, es decir, la capacidad de “recordar” señales anteriores.

“No se trata de aprendizaje biológico en sentido estricto, pero sí de un análogo eléctrico del aprendizaje, donde el sustrato modifica su respuesta según la estimulación previa”, explica Adamatzky.

Además, los hongos no generan señales al azar: sus patrones eléctricos parecen formar una especie de lenguaje interno que coordina la actividad de la red micelial.

Una alternativa sostenible al silicio

En paralelo, John Larocco ha investigado el potencial del micelio del hongo shiitake como componente electrónico.

El equipo eligió esta especie por ser resistente, barata, fácil de cultivar y no tóxica, lo que la convierte en un candidato ideal para desarrollar dispositivos electrónicos biodegradables.

La idea es avanzar hacia tecnologías que reduzcan la dependencia de los semiconductores tradicionales, cuya fabricación implica procesos altamente contaminantes.

Registro de la actividad eléctrica del micelio (la “red de raíces” de los hongos), que se comporta de manera parecida a las neuronas en el cerebro. /Andrew Adamatzky
Registro de la actividad eléctrica del micelio (la “red de raíces” de los hongos), que se comporta de manera parecida a las neuronas en el cerebro. Imagen, Andrew Adamatzky

“Estamos hablando de miles de millones de euros en infraestructura para fabricar chips. En cambio, los dispositivos fúngicos pueden cultivarse prácticamente en cualquier lugar, incluso en un montón de compost”, señala Larocco.

Otra ventaja es que los hongos pueden integrarse directamente en materiales vivos o sistemas ecológicos, como suelos, embalajes, textiles o estructuras de construcción.

Al finalizar su vida útil, los componentes fúngicos se biodegradan, evitando uno de los grandes problemas de la electrónica actual: los residuos tecnológicos.

Ventajas y desafíos tecnológicos

Los experimentos han mostrado que estos dispositivos pueden operar a frecuencias cercanas a los 6.000 Hz, aún por debajo de los memristores comerciales, pero lo suficientemente prometedoras para ciertas aplicaciones.

El investigador Mohammad Mahdi Dehshibi, de la Universidad Carlos III de Madrid, destaca que los sistemas informáticos fúngicos son altamente escalables. Es posible cultivar grandes estructuras miceliales que funcionen como matrices de sensores distribuidos.

Entre sus ventajas también se encuentran bajo consumo energético, flexibilidad y resistencia a la radiación, capacidad de autorreparación y funcionamiento incluso tras deshidratación.

Sin embargo, la computación fúngica enfrenta importantes desafíos.

Uno de los principales es la variabilidad biológica. Cada especie —e incluso cada colonia— puede comportarse de forma distinta, lo que dificulta la estandarización.

También existen problemas técnicos asociados a mantener el micelio vivo y funcional.

“Los sustratos vivos pueden secarse, contaminarse o cambiar de comportamiento a medida que crecen”, explica Adamatzky. Esto complica su integración en hardware convencional y obliga a mantener condiciones ambientales controladas.

Startups que apuestan por la computación con hongos

El interés por esta tecnología también está llegando al mundo empresarial.

La startup Mycosoft, liderada por Morgan Rockwell, se especializa en interfaces que traducen las señales eléctricas del micelio en datos computables.

Entre sus desarrollos se destacan Mushroom 1, un sensor ambiental capaz de medir CO₂, humedad y señales bioeléctricas del micelio; SporeBase, una plataforma para cultivar y monitorear redes fúngicas; y NatureOS, un sistema en la nube para analizar datos biológicos ambientales.

Estas tecnologías apuntan a un futuro en el que los hongos formen parte de infraestructuras inteligentes y redes de monitoreo ambiental.

El futuro de las “computadoras vivientes”

Aunque los científicos coinciden en que los hongos no reemplazarán a los procesadores de silicio de alta velocidad, sí podrían ofrecer ventajas únicas en sostenibilidad, eficiencia energética y adaptación al entorno.

Además, los hongos poseen capacidades sensoriales naturales: pueden detectar luz, gases, sustancias químicas, variaciones de pH y fuerzas mecánicas, lo que los convierte en candidatos ideales para redes de sensores de bajo consumo.

Para Adamatzky, el verdadero potencial de esta tecnología no está en crear computadores tradicionales, sino materiales inteligentes capaces de percibir y responder al entorno.

“Las futuras computadoras vivientes no serán máquinas aisladas”, señala. “Serán materiales adaptativos integrados en nuestros entornos, capaces de monitorear, interpretar y reaccionar al mundo que los rodea”.

La entrada La informática encuentra un aliado en los hongos se publicó primero en Revista Ecociencias.



☞ El artículo completo original de Revista Ecociencias lo puedes ver aquí

Pensábamos que en la Prehistoria se comía pura carne. El fondo quemado de una olla acaba de demostrar que éramos unos chefs refinados

Pensábamos que en la Prehistoria se comía pura carne. El fondo quemado de una olla acaba de demostrar que éramos unos chefs refinados

Durante años, la cultura popular nos ha vendido la imagen de un hombre prehistórico cuya alimentación se basaba casi exclusivamente en devorar grandes cantidades de carne asada. Sin embargo, la ciencia lleva años desmontando este mito, y ahora un estudio ha analizado los restos incrustados en vasijas milenarias, que es el equivalente al 'socarrat' de la paella valenciana. Y los resultados apuntan a que nuestros antepasados eran, en realidad, unos cocineros sumamente creativos. 

Lo que se ha visto. Más allá de lo que pensamos, de que se cazaba y al momento se asaba en el fuego la presa del día, la ciencia ha demostrado que los cazadores europeos de hace casi 8.000 años combinaban pescado de agua dulce con una gran variedad de vegetales, utilizando técnicas culinarias avanzadas para mejorar sabores y neutralizar toxinas. Algo similar a lo que hacemos a día de hoy en la cocina, como recoge El País

¿Dónde lo vimos? El estudio, con participación española, llegó a esta conclusión sin tener que buscar en los huesos fosilizados, sino en algo mucho más sutil como son las costras de comida carbonizadas adheridas a 85 fragmentos de cerámica que provienen de 13 yacimientos arqueológicos del norte y este de Europa. 

Cómo se hizo. Una vez que se tenían localizados estos restos, se optó por aplicar tecnología puntera, como por ejemplo la microscopía electrónica de barrido combinada con el análisis molecular de estos restos.

Hasta ahora, los restos vegetales en arqueología solían estar subestimados porque se degradan mucho más rápido que los huesos de animales. Pero el microscopio electrónico ha revelado un nivel de detalle asombroso, detectando tejidos celulares de plantas y escamas de peces microscópicas que han podido sobrevivir milenios gracias a haberse quemado y adherirse a la arcilla. 

Los resultados. Con todas estas técnicas hemos podido llegar a responder qué es lo que se cocinaba en esas ollas de arcilla, y la verdad es que debemos olvidar la idea de tener un trozo de carne al fuego, sino que se han revelado recetas que mezclaban proteínas e hidratos de forma meticulosa. 

Los investigadores pudieron ver aquí restos de pescados de agua dulce, destacando la carpa y los barbos, los vegetales de hoja como las espinacas, raíces y bulbos como la remolacha y también bayas de Viburnum opulus. 

Un chef prehistórico. Quizás el descubrimiento más fascinante del equipo de González Carretero sea la sofisticación de las técnicas culinarias, ya que las bayas de Viburnum opulus son conocidas por ser ligeramente tóxicas en crudo y tener un sabor tremendamente ácido y amargo.

Sin embargo, los habitantes prehistóricos descubrieron que al cocinarlas a fuego lento en un caldo junto a pescados ricos en grasas, el amargor se neutralizaba, haciéndolas digestivas y seguras para el consumo humano. Y esta mezcla no era accidental, sino una receta transmitida que buscaba siempre mejorar el sabor. 

Revolución culinaria. Este trabajo se suma a una creciente ola de estudios que están reescribiendo la historia de nuestra alimentación. Ya en 2018 se publicaba en PNAS el descubrimiento del "pan" más antiguo del mundo en Jordania, horneado hace 14.400 años, mucho antes de que se inventara la agricultura. Pero ahora estos restos de comida nos apuntan a que la mal llamada dieta paleo no existió tal y como nos la han querido vender. 

Sacamos en claro que nuestros antepasados conocían su entorno a la perfección, dominaban el procesamiento de plantas tóxicas y dedicaban tiempo a preparar guisos complejos donde las verduras y los tubérculos eran platos principales, no una simple guarnición.

Portada | Generada con Nano Banana 2 

En Xataka | Llevamos años confiando en el Nutri-Score en las tiendas. La ciencia opina que su impacto real es nulo

-
La noticia Pensábamos que en la Prehistoria se comía pura carne. El fondo quemado de una olla acaba de demostrar que éramos unos chefs refinados fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí

Un chip fotónico de IA del tamaño de un cabello promete cálculos ultrarrápidos y menor consumo energético

nuevo chip de inteligencia artificial

Durante décadas, los chips han sido como autopistas para electrones: minúsculas partículas con carga que se empujan a través de cables microscópicos para representar ceros y unos. Ese tráfico tiene una consecuencia conocida: se pierde energía en forma de calor, igual que un cargador que se entibia cuando lo exigimos. En sistemas grandes, como los centros de datos, esa disipación se convierte en un problema de escala: más potencia, más calor; más calor, más refrigeración; más refrigeración, más energía y, en muchos casos, más agua.

Un equipo de la Universidad de Sídney propone un giro técnico interesante: sustituir ese tráfico de electrones por el paso de fotones, partículas de luz. La idea es sencilla de entender con una metáfora cotidiana: si la electricidad es una fila de coches en hora punta, la luz se parece más a un haz que cruza un túnel sin fricción. La luz puede atravesar ciertos materiales sin la “resistencia” que frena a los electrones, y por eso no calienta de la misma manera. En su prototipo, el cálculo ocurre mientras la luz atraviesa estructuras nanométricas; no se trata de que un procesador “encadene instrucciones” como siempre, sino de que la propia geometría del chip realiza la operación, como un colador que separa partículas según el tamaño sin necesitar motores.

Un acelerador neurálgico en miniatura: la IA dentro de la nanostructura

El trabajo describe un acelerador fotónico que funciona como una red neuronal integrada en nanostructuras. En lugar de implementar neuronas y capas como bloques de software que se ejecutan sobre hardware tradicional, el equipo ha “codificado” el comportamiento de ese modelo directamente en el diseño físico: el patrón de nanostructuras manipula el campo de luz y, con ello, ejecuta operaciones matemáticas clave para aprendizaje automático.

Lo llamativo es la escala. Las estructuras ocupan “decenas de micrómetros”, una referencia que aterriza rápido: un orden de magnitud comparable al grosor de un cabello humano. Si pensamos en los aceleradores de IA actuales como bibliotecas repletas de estanterías (muchos transistores trabajando en paralelo), aquí el enfoque se parece más a una tarjeta perforada diminuta: la forma ya contiene el “programa” y la luz lo recorre.

Según el equipo, el prototipo se construyó completamente en sus propias instalaciones en el Sydney Nano Hub, un detalle importante porque sugiere control del proceso de fabricación y capacidad de iteración rápida. El estudio se publicó en Nature Communications, con dirección del profesor Xiaoke Yi y participación destacada del doctorando Joel Sved, entre otros autores.

Velocidad: cuando el tiempo de cálculo se mide en picosegundos

En informática solemos hablar de gigahercios y latencias, conceptos que se vuelven abstractos. Aquí la cifra es más visual: el chip opera a escala de picosegundos, es decir, billonésimas de segundo (10⁻¹²). Dicho de forma llana, el “tiempo de cómputo” se parece al tiempo que tarda la luz en cruzar la nanostructura. Es casi como si el cálculo ocurriera “al pasar”, sin detenerse a respirar.

Conviene matizar lo que implica esto. Que un cálculo ocurra a esa escala no significa que cualquier tarea de IA se resuelva instantáneamente; los sistemas completos requieren entrada/salida de datos, conversiones, control y, muchas veces, memoria externa. Aun así, como demostración de un bloque de cómputo ultrarrápido, es una señal potente: el cuello de botella se desplaza. En vez de pelear por exprimir más transistores y lidiar con el calor, se abre la puerta a acelerar ciertas operaciones aprovechando la física de la luz.

Precisión en pruebas reales: de MNIST a imágenes biomédicas

Para validar el enfoque, el equipo entrenó el chip para tareas de clasificación. El texto original menciona ejemplos conocidos en investigación como MNIST (un conjunto clásico de dígitos manuscritos) y, sobre todo, un ensayo más cercano a un escenario aplicado: la clasificación de más de 10.000 imágenes biomédicas, como resonancias magnéticas (MRI) de mama, tórax y abdomen.

En simulaciones y experimentos, la red fotónica logró alrededor de 90% a 99% de precisión según la tarea y configuración reportadas. Es un rango amplio, y ahí está la lectura responsable: los resultados son prometedores, aunque no equivalen automáticamente a un despliegue clínico o industrial. La utilidad práctica dependerá de cómo se comporte el sistema cuando cambian los datos, cuando hay ruido, cuando el pipeline completo incluye sensores, preprocesado y requisitos de trazabilidad. Aun así, para un prototipo de computación óptica tan compacto, el desempeño sugiere que no estamos ante una curiosidad de laboratorio sin capacidad de generalizar.

Energía y sostenibilidad: por qué importa en la era de la IA

El argumento de fondo es el consumo energético de la IA. Entrenar y ejecutar modelos grandes exige cada vez más hardware; el impacto se nota en facturas eléctricas, diseño térmico y planificación de infraestructura. Los investigadores señalan que la fotónica puede ayudar porque el cálculo se realiza sin mover cargas a través de resistencias eléctricas, reduciendo la generación de calor “por diseño”.

Aquí vuelve la metáfora doméstica: calentar una habitación con estufa eléctrica implica pérdidas y disipación; reflejar luz con un espejo para iluminar un rincón no calienta el aire del mismo modo. En un centro de datos, reducir calor significa necesitar menos refrigeración, y esa cadena puede recortar la demanda global de energía y agua asociada al cómputo intensivo.

Ahora bien, la sostenibilidad real no se decide solo en el bloque de cómputo. También cuentan la fabricación, la integración, los láseres o fuentes de luz necesarias, la electrónica de control y, especialmente, cómo se mueve la información hacia y desde el chip. El valor del prototipo está en mostrar una ruta plausible hacia hardware de IA más eficiente, no en prometer una solución inmediata y universal.

Qué hace “especial” a este diseño: la ingeniería inversa del chip

El artículo habla de un “inverse-designed nanophotonic neural network accelerator”. En términos sencillos, el diseño inverso es como pedirle a un sistema de optimización que encuentre la forma exacta de un laberinto para que una canica (la luz) salga por la puerta correcta. En vez de dibujar manualmente cada componente óptico, se define el objetivo matemático y el algoritmo busca una geometría que lo cumpla dentro de restricciones físicas y de fabricación.

Esto encaja bien con redes neuronales porque muchas operaciones de aprendizaje automático se basan en transformaciones lineales y no lineales; si el medio físico puede realizar parte de esas transformaciones de forma natural, el sistema gana eficiencia. El reto está en la robustez: que el “laberinto” funcione aunque haya variaciones microscópicas en fabricación y que la salida sea estable en condiciones reales.

De prototipo a plataformas escalables: el siguiente paso

Tras las pruebas, el equipo de Xiaoke Yi trabaja en ampliar el enfoque hacia redes fotónicas de mayor escala. Ese salto suele ser la frontera entre un concepto brillante y una tecnología utilizable: más neuronas ópticas, más entradas y salidas, mejor integración con componentes electrónicos, empaquetado industrial, control térmico y óptico, calibración y estándares.

Una forma útil de imaginarlo es pensar en una calculadora solar. El panel funciona bien para operaciones simples; convertirlo en un ordenador portátil completo requiere teclado, pantalla, almacenamiento, sistema operativo. Con el chip fotónico ocurre algo parecido: el núcleo óptico puede ser muy rápido y eficiente, pero el producto final necesita un ecosistema. Si esa integración avanza, podríamos ver aceleradores de IA híbridos, con fotónica ejecutando ciertas capas o multiplicaciones masivas, y electrónica ocupándose del control, memoria y compatibilidad.

Lo interesante de este trabajo, tal como lo presenta Nature Communications y la nota de la Universidad de Sídney, es que aporta una demostración tangible, miniaturizada y con resultados de precisión que invitan a seguir de cerca el campo de la computación fotónica. No es una promesa mágica, pero sí una pieza concreta en el rompecabezas de cómo sostener el crecimiento de la IA sin que el coste energético crezca al mismo ritmo.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Durante 45 años creímos entender cómo giran las estrellas como nuestro Sol. Un superordenador japonés acaba de ponerlo en duda

Durante 45 años creímos entender cómo giran las estrellas como nuestro Sol. Un superordenador japonés acaba de ponerlo en duda

Entender cómo giran las estrellas puede parecer un detalle técnico, pero en realidad es una pieza central para comprender su evolución. Durante 45 años, los modelos teóricos sostuvieron que las estrellas similares al Sol acabarían cambiando su forma de rotar a medida que envejecían. La idea era que, al perder velocidad con el paso de miles de millones de años, el patrón de giro se invertiría y los polos pasarían a rotar más rápido que el ecuador. Ahora, una nueva investigación de la Universidad de Nagoya sugiere que esa predicción podría no cumplirse.

Los hallazgos. El trabajo, publicado en Nature Astronomy, apunta a que las estrellas de tipo solar podrían mantener durante toda su vida el mismo patrón de rotación que observamos en el Sol actual. Es decir, el ecuador seguiría girando más rápido que las regiones polares incluso cuando la estrella se vuelve más lenta con la edad. Las simulaciones realizadas por el equipo indican que los campos magnéticos desempeñan un papel decisivo y podrían impedir ese cambio de régimen que durante décadas se dio por hecho en los modelos teóricos.

Cómo gira realmente una estrella como el Sol. A diferencia de la Tierra, que rota como un cuerpo sólido, el Sol está formado por plasma extremadamente caliente. Eso hace que distintas regiones giren a velocidades diferentes. En el caso del Sol, el ecuador completa una vuelta aproximadamente cada 25 días, mientras que las regiones cercanas a los polos tardan alrededor de 35 días. Este fenómeno se conoce como rotación diferencial de tipo solar.

Durante décadas, las simulaciones teóricas predijeron que ese patrón no sería permanente. A medida que las estrellas envejecen y su rotación global se ralentiza con el paso de miles de millones de años, los flujos de plasma en su interior deberían reorganizarse. Las predicciones señalan que llegaría un momento en el que el comportamiento se invertiría: el ecuador giraría más despacio y los polos pasarían a rotar más rápido, un régimen que los investigadores denominaron rotación diferencial anti-solar.

El papel inesperado del magnetismo. Las nuevas simulaciones sugieren que el escenario previsto por los modelos teóricos durante décadas podría no llegar a producirse. Según los resultados del estudio, las estrellas similares al Sol mantendrían el mismo tipo de rotación diferencial durante toda su vida. Aunque la estrella se vuelva más lenta con la edad, el ecuador seguiría girando más rápido que los polos, en lugar de invertirse el patrón como se había propuesto en simulaciones anteriores.

Un supercomputador en escena. Para llegar a esa conclusión, el equipo recurrió a Fugaku, el supercomputador más potente de Japón, instalado en el centro de investigación RIKEN, en Kobe, y operativo para uso compartido desde marzo de 2021. Con su ayuda, los investigadores realizaron una simulación extremadamente detallada del interior de estrellas de tipo solar. Cada estrella simulada se dividió en unos 5.400 millones de puntos de cálculo, una resolución muy superior a la utilizada en trabajos anteriores.

Ese nivel de detalle resulta importante porque las simulaciones previas trabajaban con resoluciones mucho más bajas. En esas condiciones, los campos magnéticos tendían a desaparecer artificialmente dentro del modelo, lo que llevaba a subestimar su influencia en la dinámica interna de la estrella. En la nueva simulación, en cambio, los campos magnéticos se mantuvieron estables y mostraron un efecto claro: ayudan a impedir la inversión del patrón de rotación.

Las implicaciones. Comprender con mayor precisión cómo rotan las estrellas similares al Sol es clave para interpretar su actividad magnética a lo largo del tiempo. Ese aspecto está relacionado con fenómenos bien conocidos en nuestro propio astro, como el ciclo solar de aproximadamente 11 años que regula la aparición de manchas solares y episodios de actividad magnética. Una mejor comprensión de estos procesos también podría ayudar a mejorar los modelos de evolución estelar utilizados por los astrónomos para estudiar estrellas lejanas.

Imágenes | NASA

En Xataka | PLD Space ha levantado 180 millones de euros con Mitsubishi al frente: la startup espacial española crece con dinero japonés

-
La noticia Durante 45 años creímos entender cómo giran las estrellas como nuestro Sol. Un superordenador japonés acaba de ponerlo en duda fue publicada originalmente en Xataka por Javier Marquez .



☞ El artículo completo original de Javier Marquez lo puedes ver aquí