7 de enero de 2026

NVIDIA ya tiene su propio Autopilot. Y Tesla tiene motivos para preocuparse

NVIDIA ya tiene su propio Autopilot. Y Tesla tiene motivos para preocuparse

NVIDIA ha presentado en el CES 2026 Alpamayo, una familia de modelos de IA de código abierto diseñada específicamente para vehículos autónomos. El sistema no solo detecta obstáculos y planifica rutas, sino que "razona" sobre situaciones complejas y explica sus decisiones de conducción.

Mercedes-Benz será el primero en implementarlo en el CLA, que llegará a Estados Unidos en el primer trimestre de 2026.

Por qué es importante. Tesla ha mantenido su sistema FSD completamente cerrado desde 2016, y ahora NVIDIA apuesta por liberar los pesos del modelo, el framework de simulación y más de 1.700 horas de datos de conducción.

Esta estrategia puede convertir a NVIDIA en "el Android de la movilidad autónoma" y permitir que cualquier fabricante acceda a capacidades comparables a las de Tesla sin necesidad de años de desarrollo interno.

El contraste:

  1. Tesla vende su FSD como un sistema propietario integrado solo en sus coches, generando ingresos recurrentes de sus propios clientes.
  2. NVIDIA quiere vender chips a toda la industria, proporcionando la tecnología base para que otros construyan sus sistemas.

El primer modelo gana más por venta individual, pero el segundo puede escalar exponencialmente si varios fabricantes adoptan la plataforma.

En detalle. Alpamayo 1 es un modelo de 10.000 millones de parámetros que procesa vídeo y genera tanto una trayectoria como la lógica detrás de cada decisión.

Jensen Huang lo ha descrito como el "momento ChatGPT para la IA física". El Mercedes CLA integrará 30 sensores (cámaras, radares, ultrasónicos...) y se comercializará como sistema "Nivel 2+", similar al FSD de Tesla en que requiere atención constante del conductor.

Entre líneas. La jugada de NVIDIA parece realmente buena desde el punto de vista regulatorio:

  • Al generar una "trazabilidad de razonamiento" que explica cada decisión, tranquiliza a los reguladores, que suelen estar aterrados por los modelos de caja negra.
  • Y al liberar el código, engancha a startups y fabricantes en su ecosistema CUDA.

Si no puedes desarrollar autonomía por ti mismo (la mayoría de fabricantes tradicionales no puede), simplemente usas Alpamayo... y lo ejecutas en chips de NVIDIA.

La amenaza. Para Tesla, esto supone la temida commoditización de una tecnología que ha sido su principal diferenciador. Si Mercedes entrega en marzo capacidades similares a FSD basadas en un sistema que cualquier marca puede comprar, el argumento de venta de Tesla se debilita.

Elon Musk ya ha comentado este anuncio en su perfil de X: "Es fácil llegar al 99%, luego es muy difícil resolver el resto". También parece una admisión implícita de que Tesla tampoco ha resuelto ese problema final.

Sí, pero. El código abierto no garantiza el éxito ni el símil con Android en la telefonía. La implementación real, la integración con sensores concretos y la validación en condiciones reales siguen siendo complejas.

Tesla lleva años acumulando millones de kilómetros de datos de conducción. NVIDIA ofrece 1.700 horas, una fracción enana en comparación. La pregunta es si esa ventaja de datos de Tesla compensa la ventaja de distribución que NVIDIA puede conseguir al asociarse con varios fabricantes. El tiempo y el mercado dirán.

En Xataka | Si te parece caro cambiar la batería de un coche eléctrico, espera a ver lo que cuesta en un Ferrari LaFerrari: más de 200.000 euros

Imagen destacada | Pixilustration

-
La noticia NVIDIA ya tiene su propio Autopilot. Y Tesla tiene motivos para preocuparse fue publicada originalmente en Xataka por Javier Lacort .



☞ El artículo completo original de Javier Lacort lo puedes ver aquí

GRB 250702B: el estallido de rayos gamma que duró siete horas y descolocó a la astronomía

gamma_ray_explosion

Los estallidos de rayos gamma (GRB, por sus siglas en inglés) suelen comportarse como un fogonazo: aparecen, golpean fuerte y se apagan rápido. Por eso, cuando el evento bautizado como GRB 250702B mantuvo actividad durante casi siete horas, el desconcierto fue inmediato. No se trató de una “llamarada larga” sin más, sino de una secuencia con episodios repetidos que estiró el fenómeno mucho más allá de lo habitual, hasta el punto de forzar a los equipos a replantearse qué tipo de motor cósmico puede sostener una emisión así.

El aviso inicial llegó el 2 de julio de 2025, cuando instrumentos espaciales detectaron la señal de alta energía. A partir de ahí, se activó el protocolo habitual de la comunidad: correr contrarreloj para capturar el posresplandor (afterglow), esa estela de luz que queda cuando el estallido principal se va apagando. La diferencia es que esta vez el “incendio” no se apagaba, y el margen para observar no fue de minutos, sino de horas.

Qué estamos viendo cuando vemos un GRB

Un GRB es una descarga extrema de radiación, dominada por rayos gamma, asociada a eventos violentos en el Universo. Una forma útil de imaginarlo es como el destello de una cámara en una noche cerrada: durante un instante ilumina todo, pero si pestañeas te lo pierdes. En cosmología, ese “instante” suele medirse en segundos o pocos minutos. En muchos casos, la explicación favorita incluye un chorro muy colimado de material —un chorro relativista— que se lanza a velocidades cercanas a la de la luz y apunta, por casualidad, hacia nosotros.

En el caso de GRB 250702B, la analogía cambia: no fue un flash, fue más parecido a una linterna potentísima que alguien enciende, apaga y vuelve a encender durante horas, mientras la batería parece no agotarse. Eso tensiona los modelos porque obliga a que el motor central (lo que sea que lo alimente) sostenga condiciones extremas mucho más tiempo del que solemos aceptar.

Siete horas de actividad: el detalle que lo vuelve incómodo

El equipo liderado en parte por investigadores de la Universidad de Carolina del Norte en Chapel Hill (UNC-Chapel Hill) describió este evento como el GRB más largo observado por humanos. Jonathan Carney, autor principal del estudio, lo expresó con una idea sencilla: la duración es tan grande que no encaja bien en los modelos estándar. Esa frase, traducida a la práctica, significa que no basta con ajustar parámetros; hay que considerar escenarios que no suelen ser los primeros de la lista cuando se interpreta un estallido de rayos gamma.

Igor Andreoni, coautor del trabajo, aportó otro dato que ayuda a dimensionarlo: los análisis sugieren que un fenómeno muy energético lanzó un chorro estrecho en nuestra dirección viajando al menos al 99% de la velocidad de la luz. Si lo piensas como una manguera a presión atravesando un cortinaje de humo, la imagen se aproxima: la señal que nos llega es la parte del “chorro” que logra abrirse camino, y en este caso tuvo combustible para seguir empujando durante horas.

La galaxia anfitriona: un “escenario” lleno de polvo que oculta pistas

Una de las sorpresas fue el lugar del que provino. Las observaciones del posresplandor llevaron a una galaxia masiva y muy polvorienta, donde el polvo actúa como una persiana bajada: bloquea gran parte de la luz visible y deja pasar mejor el infrarrojo y, por supuesto, las emisiones de alta energía. En términos cotidianos, es como intentar identificar un coche con los faros apagados en una calle con niebla espesa: se intuyen formas, se detectan señales indirectas, pero cuesta ver el detalle fino.

Esa opacidad cambia la estrategia de observación. Donde un GRB “típico” puede seguirse con telescopios ópticos de forma relativamente directa, aquí hizo falta apoyarse en instrumentación capaz de trabajar con infrarrojo y con señales complementarias. Imágenes profundas tomadas con el Gemini North mostraron una galaxia anfitriona extremadamente tenue en visible pese a horas de integración, coherente con la presencia de grandes cantidades de polvo. En paralelo, el hecho de estar en una galaxia compleja y lejana deja abierta la puerta a progenitores distintos a los que solemos asumir en ambientes menos “tapados”.

Una investigación coral: telescopios en tierra y en órbita siguiendo la estela

El trabajo se apoyó en una campaña coordinada internacional en la que participaron grandes telescopios terrestres en Estados Unidos, junto con datos del Very Large Telescope del Observatorio Europeo Austral (ESO), observaciones del Telescopio Espacial Hubble de la NASA, y seguimiento en rayos X. Esa combinación es clave porque cada ventana del espectro cuenta una parte distinta de la historia.

El posresplandor funciona como una especie de “eco” del estallido: no te dice solo cuánto brilló, también sugiere cómo era el entorno que atravesó el chorro. Si el medio está cargado de polvo, si hay gas denso, si el sistema está en una región de formación estelar intensa, todo eso deja huellas en cómo decae la luz con el tiempo y en qué longitudes de onda es más visible. Con GRB 250702B, la lectura conjunta apunta a un evento extragaláctico a miles de millones de años luz, incrustado en un entorno particularmente difícil de observar en óptico.

Tres explicaciones plausibles, ninguna ganadora por ahora

Lo más honesto del estudio es que no fuerza una respuesta única. Los datos son compatibles con varios escenarios. Uno es el colapso de una estrella muy masiva, un final catastrófico que puede formar un objeto compacto y lanzar chorros relativistas. Otro escenario contempla una colisión o interacción entre remanentes estelares inusuales, incluyendo posibilidades como la participación de una estrella rica en helio. También se considera un evento de disrupción por marea: una estrella desgarrada por un agujero negro, donde parte del material cae y puede alimentar emisiones de alta energía durante un tiempo prolongado.

El problema no es imaginar mecanismos, sino casar cada uno con la duración, la estructura de episodios repetidos, la firma del posresplandor y el hecho de que todo ocurra tras un “telón” de polvo. Con la información disponible, el equipo concluye que todavía no se puede distinguir de forma concluyente el origen. En ciencia, esto no es una debilidad; es una fotografía nítida del punto exacto donde la evidencia manda y la especulación se queda en su sitio.

Por qué importa: física extrema y el reparto de elementos pesados

Los rayos gamma son una puerta de entrada a condiciones que no podemos recrear en laboratorios: materia moviéndose casi a la velocidad de la luz, densidades enormes, campos gravitatorios capaces de deformar el espacio-tiempo. Cada GRB es como un banco de pruebas natural, y uno tan largo como GRB 250702B amplía el tiempo de exposición de ese experimento.

Hay otra capa igual de relevante: estos estallidos participan en la historia química del cosmos. Las explosiones más energéticas contribuyen a dispersar elementos pesados en el medio interestelar, materiales que con el tiempo acaban formando nuevas estrellas, planetas y, en el caso de la Tierra, parte de lo que hace posible la vida. No hace falta imaginarlo como una “fábrica” perfecta; basta con pensar en cómo el humo de una hoguera se mezcla con el aire del valle: se reparte, se diluye y termina siendo parte del ambiente. En escalas cósmicas, ese reparto es una de las razones por las que estudiamos estos fenómenos con tanto interés.

Un “patrón de referencia” para lo que venga después

El equipo plantea una idea práctica: GRB 250702B puede convertirse en un punto de comparación. Cuando aparezcan nuevos estallidos excepcionalmente largos, la pregunta será si se parecen a este en duración, entorno y evolución del posresplandor, o si estamos ante una familia distinta de eventos. En otras palabras, esta detección no solo es una rareza; puede ser una regla para medir futuras rarezas.

El estudio fue publicado en The Astrophysical Journal Letters con fecha del 26 de noviembre de 2025, firmado por Jonathan Carney, Igor Andreoni y una larga colaboración internacional, y recoge precisamente esa prudencia: varias hipótesis sobreviven, ninguna se impone todavía. A veces la astronomía avanza así, no con una respuesta definitiva, sino con una anomalía bien medida que obliga a mejorar las preguntas.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Hervir y colar: una forma doméstica de reducir microplásticos en el agua del grifo

microplastics_water

Los microplásticos y los nanoplásticos son como el “polvo invisible” de la era moderna: fragmentos diminutos que se desprenden de envases, textiles, utensilios de cocina o productos de cuidado personal y que acaban circulando por el aire, el suelo y, sí, también por el agua potable. La inquietud no nace solo de su presencia, sino de su tamaño. Cuando algo es tan pequeño como para colarse por rendijas que ni vemos, también puede atravesar sistemas de filtrado que damos por sentados y terminar en lo que bebemos a diario.

Esa es la idea que subraya un equipo liderado por el ingeniero biomédico Zimin Yu (Guangzhou Medical University): parte de los nano/microplásticos (NMPs) puede escapar de los sistemas centralizados de tratamiento de aguas, lo que plantea un posible riesgo de exposición continuada a través del consumo doméstico. El problema es silencioso: no cambia el sabor del agua, no deja olor, no avisa.

El experimento: una cocina convertida en laboratorio

La propuesta que ha llamado la atención por su sencillez se publicó en Environmental Science & Technology Letters (Yu y colaboradores, 2024) y parte de una pregunta muy cotidiana: si al hervir el agua se forma cal en la tetera, ¿podría esa misma “costra” atrapar partículas plásticas?

Para comprobarlo, el equipo trabajó con agua blanda y agua dura (la que tiene más minerales disueltos). En ambas añadieron nanoplásticos y microplásticos de forma controlada, hirvieron el agua y después filtraron los precipitados, es decir, lo que se separa y queda como residuo sólido tras el calentamiento. La gracia del enfoque es que no depende de aparatos sofisticados: reproduce algo que muchísima gente ya hace, pero con un objetivo distinto.

Qué papel juega la dureza del agua y la “cal” de siempre

Si vives en una zona de agua dura, probablemente conozcas ese anillo blanquecino que aparece en la base del hervidor o en las paredes de una olla. Eso es, en gran parte, carbonato cálcico, un depósito que se forma cuando el agua rica en minerales se calienta y parte de esos compuestos salen de la disolución.

Aquí está el truco físico-químico: al calentarse, el carbonato cálcico puede “pegarse” a superficies microscópicas, formando una especie de armadura. Imagina una croqueta: por dentro está el relleno y por fuera la capa crujiente. En el experimento, esa capa mineral actuaría como rebozado que encapsula fragmentos plásticos. Cuando ese conjunto precipita, se vuelve mucho más fácil de retirar con un filtrado simple.

Según los autores, cuanta más dureza del agua, más eficiente resulta la precipitación de NMPs durante el hervor. Es una paradoja interesante: el agua que suele “ensuciar” más los electrodomésticos podría ayudar a capturar más partículas.

Cuánto se reduce realmente: cifras que ponen el método en contexto

El estudio no promete magia, y eso es importante. En las mejores condiciones se observó una eliminación muy alta, con casos que llegaron a retirar hasta alrededor del 90% de los NMPs. La eficacia, sin embargo, varió con la composición del agua. En muestras con distintas concentraciones de carbonato cálcico, el equipo reportó incrementos notables: aproximadamente un 34% de precipitación con 80 mg/L, subiendo a cerca del 84% y 90% con 180 y 300 mg/L, respectivamente (Yu et al., 2024).

En agua blanda, donde hay menos minerales para formar esa “costra” capturadora, el procedimiento siguió funcionando, pero con menor rendimiento: en torno a una cuarta parte de las partículas quedó retenida. Dicho de forma sencilla: hervir y colar puede ser una reducción significativa, no una eliminación total.

Otro punto relevante es que probaron el método en condiciones exigentes, añadiendo concentraciones elevadas de partículas. El hecho de que aun así se viera una caída clara refuerza la plausibilidad del mecanismo.

Cómo aplicarlo en casa sin convertirlo en un ritual complicado

La parte atractiva de esta estrategia es que cabe en cualquier cocina. En la práctica, se trata de hervir agua y, una vez que se ha producido el precipitado, filtrar para retirar las partículas atrapadas en esos depósitos minerales. Los investigadores mencionan que un filtro básico, como una malla de acero inoxidable tipo colador de té, puede servir para retener los restos sólidos formados durante el proceso.

Conviene entenderlo como cuando cuelas un caldo: lo líquido pasa, lo que queda “atrapado” se va con el colado. La diferencia es que aquí no estás separando fideos, sino una mezcla de minerales y partículas diminutas adheridas. Si el agua de tu zona es dura y sueles ver cal en la tetera, ese mismo fenómeno que te incomoda puede estar trabajando a tu favor.

Un matiz práctico: si hierves agua en un recipiente donde se acumula mucha cal, esa acumulación existe porque algo se está depositando. El filtrado tiene sentido justo para evitar que esos sólidos vuelvan a tu vaso. Y si te preguntas si basta con hervir sin colar, el razonamiento del estudio apunta a que la retirada del precipitado es parte esencial del método.

Lo que este método no resuelve

Es fácil caer en la idea de “solución universal”, y aquí conviene frenar. Este procedimiento se estudió para reducir nano/microplásticos en el agua, no para eliminar todos los contaminantes posibles. El hervor es muy útil para inactivar microorganismos, pero no está pensado para retirar sustancias disueltas que no precipitan con el calor. Así que, aunque pueda ser una herramienta más, no sustituye recomendaciones locales sobre potabilidad, ni reemplaza sistemas de filtrado específicos cuando el problema es otro.

También hay un límite conceptual importante: el estudio se centra en cómo se comportan partículas añadidas bajo condiciones controladas y cómo cambian según la mineralización del agua. Eso no equivale a decir que cada hogar obtendrá exactamente el mismo porcentaje de reducción. La química del agua varía como varía el café según quién lo prepare.

Qué se sabe sobre salud y por qué la ciencia pide prudencia

La conversación sobre microplásticos en el cuerpo es intensa porque todavía se están armando las piezas del puzzle. El texto que has compartido menciona vínculos observados en investigaciones previas con cambios en el microbioma intestinal y con la resistencia a antibióticos, señales que invitan a investigar más sin convertir cada hallazgo en alarma automática.

En paralelo, una revisión de literatura de 2025 de la University of Texas at Arlington señala que una parte relevante de la exposición humana puede venir del agua de bebida y que las plantas de tratamiento de aguas residuales no estarían retirando microplásticos de forma completamente efectiva. Esa idea encaja con el argumento de Yu y su equipo: si algo llega al grifo, reducirlo en casa puede tener sentido como estrategia de mitigación.

Por qué una costumbre local podría ganar interés global

“Beber agua hervida” se asocia muchas veces a tradición o a contextos donde se busca seguridad microbiológica. Yu y colaboradores plantean que, con el aumento de la preocupación por los plásticos, este hábito podría expandirse por un motivo distinto: reducir la ingesta de nanoplásticos y microplásticos.

Pensándolo con una metáfora doméstica, es como poner un felpudo en la entrada cuando sabes que hay polvo en la calle: no limpia toda la ciudad, pero evita que una parte entre en casa. Si la exposición se repite cada día, pequeñas reducciones sostenidas pueden ser valiosas, siempre que no se vendan como garantía total.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

6 de enero de 2026

Estudio revela que Chile confía en la ciencia, pero persisten brechas de acceso y participación

Un estudio nacional revela alto interés ciudadano por la ciencia, aunque con diferencias marcadas según nivel socioeconómico, edad, género y territorio.

La ciencia goza de una percepción mayoritariamente positiva en Chile. Así lo confirma el estudio “Percepciones y hábitos de consumo de información de ciencia en Chile: conectando audiencias con el patrimonio científico nacional y regional” (2025), que muestra que un 79% de la población se declara interesada o muy interesada en temas científicos. Este alto nivel de interés convive con una confianza elevada en la ciencia, aunque condicionada por variables sociales y económicas.

Sin embargo, tras estas cifras alentadoras, el informe advierte brechas persistentes que afectan el acceso, la participación y la apropiación social del conocimiento científico, especialmente entre distintos niveles de ingreso, educación, edad y territorio.

Interés alto, pero desigual

El estudio —basado en una encuesta nacional a más de 2.000 personas de entre 18 y 85 años, complementada con grupos focales en Antofagasta y Punta Arenas— muestra que el interés por la ciencia no se distribuye de manera homogénea. Mientras el 92% de las personas de altos ingresos (sobre $1,5 millones mensuales) declara un alto interés por la ciencia, esta cifra desciende al 75% en los hogares de menores ingresos (menos de $500 mil), evidenciando una brecha socioeconómica significativa.

La edad también marca diferencias relevantes. Aunque los adultos mayores (66 a 85 años) presentan los niveles más altos de interés, con un 90% que se declara interesado o muy interesado, este grupo participa menos en entornos digitales. En contraste, los jóvenes entre 18 y 25 años, si bien muestran un interés menor (75%), consumen más contenidos científicos a través de redes sociales como Instagram y TikTok.

Confianza en la ciencia, con matices

Si bien la ciencia mantiene altos niveles de legitimidad social, el estudio advierte que la confianza no es uniforme. Las personas con menor nivel educacional y menores ingresos tienden a confiar menos en las instituciones científicas, lo que refuerza la necesidad de fortalecer la vinculación entre el sistema científico y la ciudadanía. Además, persiste una mayor valoración de instituciones científicas extranjeras por sobre las nacionales, lo que plantea un desafío para la visibilidad de la ciencia que se produce en Chile.

Cómo se informa la ciudadanía

El consumo de información científica en Chile está fuertemente mediado por plataformas digitales y audiovisuales. Los buscadores de internet, YouTube, documentales y programas de televisión especializada aparecen como las principales vías de acceso a contenidos científicos. No obstante, pese al alto interés declarado, la participación en actividades presenciales —como charlas, talleres o visitas a museos— sigue siendo baja, especialmente en regiones fuera de la Región Metropolitana.

Territorio y ciencia: una conexión pendiente

Uno de los hallazgos más críticos del estudio es la débil identificación con el patrimonio científico regional. Aunque existe un reconocimiento general de la ciencia como parte del patrimonio cultural del país, muchas personas no logran identificar aportes científicos relevantes de sus propios territorios. En regiones con alto valor científico, como Antofagasta o Magallanes, persiste la percepción de invisibilización del conocimiento local en los medios nacionales, reforzando el centralismo informativo.

Prioridades claras: medioambiente y salud

Al consultar por las áreas científicas que deberían ser prioritarias para el desarrollo del país, la ciudadanía sitúa en primer lugar a las ciencias médicas y de la salud, seguidas por la ingeniería y la tecnología, y luego por las ciencias naturales. En este contexto, los desafíos ambientales, energéticos y de adaptación al cambio climático emergen como preocupaciones transversales para el futuro del país.

Un llamado a fortalecer la cultura científica

El estudio concluye que Chile cuenta con una base social favorable para avanzar hacia una cultura científica más sólida, pero advierte que este potencial solo podrá consolidarse si se reducen las brechas de acceso y confianza, se fortalecen los canales de comunicación científica y se reconoce el valor del conocimiento generado en los territorios.

En un escenario marcado por desafíos ambientales, sanitarios y tecnológicos crecientes, comprender cómo la ciudadanía se informa, confía y participa en la ciencia deja de ser un ejercicio académico y se transforma en una condición clave para el desarrollo democrático y sostenible del país.

La entrada Estudio revela que Chile confía en la ciencia, pero persisten brechas de acceso y participación se publicó primero en Revista Ecociencias.



☞ El artículo completo original de Revista Ecociencias lo puedes ver aquí

El "Sol Artificial" de China acaba de pulverizar un límite físico de hace 40 años: la energía de fusión ya no tiene techo

El "Sol Artificial" de China acaba de pulverizar un límite físico de hace 40 años: la energía de fusión ya no tiene techo

Durante cuatro décadas, los científicos de la fusión nuclear han vivido bajo la ifra de una cifra: el límite de Greenwald. Algo que, en esencia, es el "techo de cristal" de los reactores de tipo tokamak y que impide supuestamente producir más energía de la que podrían. Pero el conocido como el 'Sol artificial' de China ha roto este techo completamente, y encima de manera estable (superando al modelo europeo)

El muro de Greenwald. Para entender el logro, primero hay que entender el problema. En un reactor de fusión, la potencia que generas depende del cuadrado de la densidad, de esta manera, cuanta más densidad haya dentro del reactor, mucha más energía va a producir. Sin embargo, en 1989 el físico Martin Greenwald formuló una regla que se ha mantenido invicta: existe una densidad máxima. 

Si se supera esta densidad máxima, el plasma que hay dentro del reactor se vuelve inestable. ¿Qué significa esto? Pues que si se pasa esta línea el borde del plasma se enfría demasiado por la radiación, la corriente eléctrica se contrae y el reactor sufre una disrupción, una parada repentina que puede incluso dañar la estructura del reactor.

Rozando el límite. De esta manera, los físicos nucleares han estado siempre muy atentos a este límite, puesto que superarlo puede generar un gran caos en una central nuclear. Pero lógicamente lo que se busca siempre es sacar el máximo provecho posible a todos los recursos de los que se disponen, por lo que siempre han estado trabajando muy cerca de este límite, pero nunca sin superarlo. 

Hasta que al final ha sido posible superarlo y quitar esta limitación al 'velocímetros' de la energía nuclear.

El estudio. Los investigadores han conseguido este hecho, como han relatado en su artículo publicado en Science Advance, donde apuntan a que han logrado alcanzar densidades estables de entre 1,3 y 1,65 veces el límite de Greenwald. No fue por fuerza bruta, sino por "finura" experimental. Algo que han podido conseguido dentro del Sol Artificial chino. 

Esto significa que el reactor ha sido capaz de trabajar a un 165% de su capacidad teórica máxima sin sufrir ninguna disrupción. Es como si hubiéramos descubierto que un motor diseñado para ir a 200 km/h puede circular a 330 km/h de forma constante y sin sobrecalentarse.

Cómo lo ha conseguido. La clave no ha sido solo "meter más gas", sino cambiar la forma en la que el Sol Artificial interactúa con sus propias paredes. A diferencia de otros reactores, el Sol Artificial chino cuenta con tungsteno en sus paredes que es un metal que aguanta mejor el calor y ensucia menos el plasma. 

Además de esta propiedad de sus paredes, los investigadores utilizaron ondas microondas de alta potencia para poder calentar "limpiar" el plasma justo antes del encendido. Esto se suma a que pudieron validar una nueva teoría que dice que, bajo ciertas condiciones, el plasma se "organiza a sí mismo" para alejarse de las paredes y mantenerse estable, aunque la densidad sea extrema.

Energía real. Lo que el Sol Artificial de China ha demostrado es que el régimen "libre de densidad" es real. Esto cambia las reglas del juego para el ITER (el gran reactor internacional que se construye en Francia) y para el futuro CFETR, el reactor con el que China espera empezar a verter energía de fusión a la red eléctrica antes de 2040.

Su importancia. Con este nuevo hito, hacer reactores gigantes ya no tendrá sentido, puesto que con esta nueva teoría ya no necesitamos máquinas gigantescas para obtener la misma energía. Además, al operar en este nuevo régimen, el riesgo de que el plasma dañe el reactor se reduce drásticamente, ya que no se estará "jugando" con el límite. 

Pero lo más relevante es que se ha podido ver que cuando más denso es el plasma, más cerca estamos de la "ignición", el punto donde el Sol Artificial genera más energía de la que consume. Esto puede suponer que estamos más cerca de la tan ansiada energía infinita

Imágenes | Daniele La Rosa Messina  NASA

En Xataka | China ha descubierto una fuente de energía tan masiva que dura potencialmente 60.000 años. La mala noticia: es torio

-
La noticia El "Sol Artificial" de China acaba de pulverizar un límite físico de hace 40 años: la energía de fusión ya no tiene techo fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí