24 de enero de 2026

Adiós al duopolio de Intel y AMD en Windows: la llegada de procesadores de NVIDIA es inminente y trae 8 portátiles bajo el brazo

Adiós al duopolio de Intel y AMD en Windows: la llegada de procesadores de NVIDIA es inminente y trae 8 portátiles bajo el brazo

Cuando el río suena, agua lleva. Y los rumores de NVIDIA lanzando sus propios procesadores para ordenadores domésticos existen desde hace al menos un par de años. Pues bien, el desembarco de la empresa de Jensen Huang en este segmento es inminente y supone un desafío total a la hegemonía de Intel y AMD y a la arquitectura x86. Es más, apunta a un cambio de paradigma sobre cómo entenderemos los ordenadores personales con Windows en los próximos años. En pocas palabras: piensa en los Apple Silicon.

El contexto. Hasta la fecha, Intel y AMD se han dividido el pastel de los portátiles con Windows y la arquitectura ARM estaba destinada o bien a ordenadores más o menos asequibles y básicos con Chromebook y MediaTek o a un caro MacBook. Es cierto que ya hay algún portátil potente con Qualcomm Snapdragon bajo el capó que ejecuta Windows, pero la llegada de los chips de NVIDIA este primer trimestre de 2026 quiere ser el empujón definitivo.

Así, estos equipos ambiciosos y potentes no equiparán una GPU de NVIDIA junto a una CPU de Intel como llevamos viendo durante años, sino que contarán con un SoC de NVIDIA (en realidad, hay dos modelos: N1 y N1X). En pocas palabras, NVIDIA se encarga de dos piezas esenciales del hardware. 

Por qué es importante. NVIDIA quiere hacer con Windows lo que Apple ha conseguido con sus chips M, un ecosistema donde el procesador y los gráficos están integrados y se entienden a las mil maravillas, lo que se nota en cuestiones como el consumo de batería, la eficiencia o el propio desempeño. La bendita convergencia. 

Durante años, si querías un equipo potente para gaming o trabajo, había que elegir entre Intel o AMD y la arquitectura x86, pero NVIDIA entra como un elefante a una cacharrería con la arquitectura ARM y sus ventajas: más eficiencia, menor calentamiento y mayor duración de batería. Hasta ahora, encontrar un equipo gaming solvente para jugar era una quimera, pero el chip N1X con la arquitectura Blackwell de las RTX 50 quiere cambiarlo. Y además, podría hacerlo en equipos más estilizados. Por otro lado, estos chips utilizan memoria unificada (hasta 128 GB LPDDR5X), lo que implica menos cuellos de botellas en tareas exigentes como jugar, IA en local o edición de vídeo. 

Lo que se ha escapado. Una filtración de Lenovo ha revelado que la empresa ha fabricado seis portátiles con los procesadores N1 y N1X, entre ellas un dispositivo para gaming de 15 pulgadas. Un usuario de X/Twitter ha publicado la lista de los equipos. El perfil del usuario es anónimo total, no que no inspira demasiada confianza, pero es que hay más: esta página de actualizaciones del software de control de Legion ya muestra la existencia de un portátil "Legion 7 15N1X11" donde el "N1X" es precisamente el SoC de NVIDIA.

Además, The Verge ha descubierto contenido ya indexado y protegido de Lenovo que hacen referencia a productos con estos procesadores. Y no solo Lenovo: también a Dell se le ha escapado en su web un equipo premium con NVIDIA N1X, como deslizaba otro usuario de X/Twitter. Hace apenas un par de días Digitimes daba hasta la fecha: será esta primavera, aunque llegarán más dispositivos este verano. Después de sufrir un retraso, parece que por fin se harán realidad y no se quedarán aquí: la empresa ya tiene los N2 y N2X en su hoja de ruta para finales de 2027.

Captura De Pantalla 2026 01 24 A Las 8 10 24 En la web de Lenovo ya aparecen descripciones de productos con los SoC de NVIDIA

Los procesadores. Poca información hay de estos componentes más allá de una filtración de Geekbench que hay que coger con pinzas. Sabemos que el más potente y dirigido a los modelos con más músculo es el N1X y los rumores apuntan a que cuenta con una CPU de 20 núcleos y una GPU integrada con 6.144 núcleos CUDA (con arquitectura Blackwell). No obstante, el CEO de NVIDIA ya confirmó que el N1 y el superchip GB10 son prácticamente lo mismo. El N1 a secas es un chip más modesto enfocado a la eficiencia térmica y la duración de la batería y orientado a ultrabooks y gama media.

Los primeros portátiles con chips de NVIDIA. Los dispositivos filtrados que se estrenarán con SoC de la compañía liderada por Huang serán ocho: un portátil gaming Lenovo Legion 7 (15N1X11) con el chip N1X, los convertibles Lenovo Yoga 9 y Yoga Pro 7 con dos versiones a elegir entre N1X y N1, el IdeaPad Slim 5 en versiones de 14 y 16 pulgadas con el chip N1 y Dell "Premium 16", probablemente XPS o Alienware, con pantalla OLED y chip N1X.

NVIDIA no es nueva en esto. Lenovo es el mayor fabricante de PCs del mundo (como recoge Statista) y que lance varios modelos de sus familias más importantes implica que tiene razones de peso para confiar en que el desempeño de los chips de NVIDIA está a la altura.  No obstante, los chips para PC ARM de NVIDIA se han hecho esperar, pero eso no significa que sea una novata en el sector, cabe recordar que las Switch cuenta con un SoC Tegra y que esta línea antes ha sido el cerebro de tablets y hasta del Microsoft Surface o los Shield para TV. 

Es el inicio de una nueva guerra fría. Y si se confirma, se cumpliría el anhelo de Microsoft: el Windows on arm como alternativa real al Macbook de Apple. El primer trimestre no solo es la fecha de lanzamiento, puede convertirse en un antes y un después entre NVIDIA, Apple, AMD y Qualcomm por el control de los ordenadores del futuro. 


En Xataka | Lo nuevo de NVIDIA se llama DLSS 4.5 y parece brujería: puede multiplicar por seis el rendimiento de las GeForce RTX 50

En Xataka | El plan de EEUU para frenar la IA de China está fracasando. Huawei se está conviertiendo en la "NVIDIA china"


Portada | Hillel Steinberg

-
La noticia Adiós al duopolio de Intel y AMD en Windows: la llegada de procesadores de NVIDIA es inminente y trae 8 portátiles bajo el brazo fue publicada originalmente en Xataka por Eva R. de Luis .



☞ El artículo completo original de Eva R. de Luis lo puedes ver aquí

Es ampliamente conocido que 'La guerra de los mundos' de Orson Wells causó un pánico social. Es menos conocido que es mentira

Es ampliamente conocido que 'La guerra de los mundos' de Orson Wells causó un pánico social. Es menos conocido que es mentira

En mis años de formación como periodista recuerdo cómo nos mandaron estudiar la retransmisión radiofónica de La Guerra de los Mundos. Mi profesor de Información de Radio y Televisión nos dijo que se trató de un acontecimiento ejemplar que podría servirnos en el futuro ejercicio de la profesión para sopesar la responsabilidad de los medios y para entender los mecanismos por los que el llamado “cuarto poder” podría influir en la realidad social a la que prestamos servicio.

Lo que tal vez no pensaron los profesores que me trasmitieron aquella información es que tenían razón en lo que me habían contado, pero por un motivo doble y parcialmente equivocado.

La leyenda de La Guerra de los Mundos

La historia es bien conocida: H. G. Wells, escritor de ciencia ficción ampliamente conocido en aquel momento, tenía un relato titulado La Guerra de los Mundos, por el que los extraterrestres llegarían a la tierra para conquistar a la humanidad. Un principiante pero ambicioso joven llamado Orson Welles decidió adaptar el guión al formato radiofónico, dándole una estructura de noticiario para su programa de Mercury Theatre on the Air en la CBS y que leería junto con otros compañeros la noche del 30 de octubre de 1938, en la víspera de Halloween.

La retransmisión, la lectura de esta obra, duró una hora en la que se mantuvo el halo de veracidad salvo en tres instantes, uno al inicio del todo, otro a los 40 minutos de la grabación y otro en el 55. En ellos se indicó que se trataba de una dramatización. Por lo demás, se mantuvo en el directo la ficción de aquella invasión marciana que estaba teniendo lugar en Grovers Mill, Nueva Jersey.

Orson 2

El mito, los documentales y reportajes sobre el caso y las clases de periodismo a las que yo asistí contaban que Welles, los actores contratados y los montajes sonoros fueron tan verosímiles (y las audiencias tan ingenuas) que a los minutos de que empezasen a simular un supuesto ataque alienígena las calles del país se llenaron de masas histéricas y conmocionadas. Ataques de pánico, gente haciendo acopio de provisiones, servicios de policía colapsados y a saber cuántas cosas más. Suponemos que la gente que no oyó esos avisos, que pudo conectar con el programa después de la advertencia y escuchó el programa sin saber que era falso.

¿Y por qué no íbamos a pensar así? Los periódicos del 31 de octubre habían llevado la historia a primera plana: “Falso boletín de guerra difunde el terror por todo el país”, “Obra radiofónica aterroriza a la nación”, “Oyentes de radio entran en pánico, confunden un drama bélico como una crónica real”. Son algunos de los titulares que pudieron leerse de un suceso que, según se diría por ahí después, hizo que se corriesen ríos de tinta en forma de más de 12.000 artículos en periódicos de todo Estados Unidos.

La realidad es que, tal y como han reflejado en distintas ocasiones una serie de expertos, esta interpretación entra en buena parte en el terreno de las fake news. Para sustentarlo aquí nos valemos, sobre todo, del estudio de profesionales y expertos de la Universidad de Princeton, del trabajo del académico David Miller en su ensayo Introduction to Collective Behaviour, del libro Getting it Wrong de W Joseph Campbell, de la obra del sociólogo Robert E. Bartholomew y de lo que han recogido los periodistas Jefferson Pooley y Michael J. Socolow para Slate.

Qué hechos sí ocurrieron

La retransmisión sí provocó algunos efectos. 

Sabemos que unos lugareños de Grover's Mill, creyendo que la torre de agua de su ciudad se había transformado en una "máquina de guerra marciana gigante", dispararon con armas de fuego al tanque de agua. Hubo al menos una mujer que denunció a Welles y a su equipo por haberle causado un ataque de pánico y un hombre recibió una indemnización directa del futuro director de cine que costeó los zapatos a los que un oyente dijo que había renunciado para costearse el billete de tren que necesitaba para huir de la hecatombe alienígena.

También es cierto que incrementaron las llamadas a hospitales de personas diciendo dónde podían acercarse para donar sangre, y también se llamó a las comisarías del área de Nueva Jersey, pero la mayoría que hizo esto buscaba conocer si se trataba de una falsa alarma. Querían confirmación de que se trataba de una broma, pero también llamaban para protestar por ese programa que podía estar engañando a la gente o para felicitarles por ese gran especial de esa Noche de los Muertos. Pero nada más.

Todas ellas se aglutinaron para servir al enfoque que la prensa escrita quiso dar: que el programa de la CBS había provocado la histeria masiva, que la radio estaba mintiendo y engañando a sus oyentes y que habían creado un problema de primer nivel.

Y las mentiras que se publicaron

El rumor de que había gente siendo tratada por shock en hospitales de Nueva Jersey fue falso, tal y como desveló después la oficina de Radio de Princeton. La noticia de que un hombre había muerto por ataque al corazón a causa del programa, tal y como dijo Washington Post, tampoco fue cierta. La gente tampoco se tiró por las ventanas. En general, cientos de artículos, muchos con supuestos relatos de testigos, atestiguaron un caos que, en verdad, no había sido tal.

Titulares

Recordaba tiempo después en sus memorias Ben Gross, director de radio del New York Daily News, que en verdad las calles de Nueva York estaban medio vacías. Se conocería después también que CBS había desconectado en distintas filiales locales del país la retransmisión de Welles para poner boletines regionales que, suponían, interesarían más a su público que una obrita de marcianos.

El mayor escándalo de todos, las cifras de audiencia. Se dijo que el programa lo habían escuchado más de un millón de personas, cuando no podían ser ciertas. En verdad, la mayoría de la gente estaba escuchando el programa rival, de la NBC, del popular show radiofónico del ventrílocuo Edgar Bergin. Y con la mayoría de la gente hablamos de una audiencia del 2% con respecto al programa de la NBC, como demostró una encuesta independiente que se hizo simultáneamente al tiempo de la emisión.

Es indudable que en la cultura popular sigue fijada la idea de que La Guerra de los Mundos supuso un antes y un después, que el fenómeno debió ser tan traumático que tanto el público como los periodistas pusieron tras el suceso más cuidado en qué contar y en qué creerse. Pero, como vemos, la realidad es que esa historia que todos creemos que ocurrió fue en realidad una fabricación de la prensa tradicional.

Titulares 2

Los engañados somos nosotros años después, no los oyentes de los años 30.

Buena parte de los periódicos, de sus directores, tenían motivos para inflamar aquel relato. Por una parte el sensacionalismo es un arma de seducción, un reclamo de posibles lectores. También motivos para presionar contra la radio, un formato relativamente novedoso (y el primer gran rival al que se ha ido enfrentando el periodismo en papel) y que había desplazado tanto a sus clientes como a sus anunciantes: los ingresos por publicidad impresa habían caído, con lo que criticar la falta de verosimilitud y el engaño que producía la radio era una forma de autoadjudicarse cierto prestigio.

¿Y por qué no lo desmintió Mercury Theatre on the Air?

Porque era un mito demasiado hermoso como para destruirlo. Ningún creador tan hambriento como él dejaría escapar esta oportunidad para portar un distintivo tan llamativo: el hombre que engañó por una noche a una nación. Su respuesta inmediata fue pedir disculpas públicamente, pero en cuanto vio que su rostro estaba en la portada de los periódicos, que se estaba convirtiendo en un rostro conocido a nivel internacional, ayudó subrepticiamente a alimentar el fuego de la controversia.

El programa tampoco salió mal parado. Gracias a la prensa, a la mala prensa, el Mercury Theatre se ganó la atención de la Campbell Soup Company, que les esponsorizó después en un nuevo programa llamado The Campbell Playhouse.

Como periodista no puedo dejar de pensar en las paradojas de esta anécdota. Mis profesores utilizaron este suceso como ejemplo aleccionador de lo que puede pasar si mientes a tu público, pero al mismo tiempo esa mentira colateral, esa exageración posterior, lleva instaurada en nuestra psique desde entonces sin causarnos ningún problema.

Orson

A todos nos gusta visualizar a un montón de norteamericanos desconcertados y alarmados por una amenaza tan irreal como risible sólo porque se lo oyeron decir a alguien por la radio. Y de ese deseo de creer se aprovecharon los otros medios para construir un relato paralelo que también nos mantiene en brumas informativas.

Al mismo tiempo, aquí palpamos la ausencia de esa originalidad o evolución que a veces nos otorgamos con respecto a generaciones pasadas. Hoy es popular pensar de que la prensa se está desvirtuando por culpa de la IA y el clickbait. Todos hemos leído alguna vez una noticia en la que los periodistas le achacamos una respuesta fuerte y unilateral a un suceso que es en realidad la recopilación de unas pocas voces salpicadas por X, distorsionando el fondo sociológico que sólo podríamos extraer con un análisis profundo de todos los datos. El titular de hoy para Internet no habría sido muy distinto: “Un programa de radio hace pasar un cuento por una noticia y se incendian las redes sociales”.

Por último, esa incómoda sensación de vivir en una verdad sustentada en un finísimo hilo. Si ahora se descubriera que los investigadores de La Guerra de los Mundos que han ido destapando el mito de la retransmisión han falseado sus estudios, volveríamos a la casilla cero.

En Xataka | "Da un poco de miedo, pero es normal": en Suecia cualquier persona puede saber cuánto gana su vecino y ha sido un éxito

En Xataka | Le he preguntado a la IA cualquier chorrada y ahora estoy escribiendo una noticia sobre ella





-
La noticia Es ampliamente conocido que 'La guerra de los mundos' de Orson Wells causó un pánico social. Es menos conocido que es mentira fue publicada originalmente en Xataka por Esther Miguel Trula .



☞ El artículo completo original de Esther Miguel Trula lo puedes ver aquí

James Webb observa a WASP-121b “desangrándose”: dos colas gigantes de helio dibujan su fuga atmosférica

space

Hay exoplanetas que se comportan como una olla a presión sin tapa. WASP-121b es uno de ellos: un gigante gaseoso que orbita tan cerca de su estrella que su atmósfera se calienta a miles de grados. Con ese nivel de energía, las capas altas se vuelven ligeras y “se hinchan”, y parte del gas termina escapando al espacio. No es una metáfora gratuita; es física gravitatoria básica: cuando las partículas se mueven lo bastante rápido, dejan de estar “atadas” al planeta.

En los últimos años se ha hablado mucho de la pérdida atmosférica como una fuerza silenciosa que, con paciencia geológica, puede remodelar mundos enteros. Lo interesante aquí no es solo que WASP-121b esté perdiendo gas, sino que ahora se ha podido seguir el proceso con una continuidad poco habitual, como si en vez de ver una foto borrosa viéramos el vídeo completo.

La mirada infrarroja del telescopio James Webb

El telescopio James Webb (JWST) trabaja en infrarrojo y está diseñado para detectar señales sutiles en sistemas lejanos. En exoplanetas, una de sus ventajas es que puede medir cómo ciertos elementos “muerden” la luz de la estrella en longitudes de onda concretas. Ese mordisco es la huella espectral: si aparece, el elemento está ahí, entre el telescopio y la estrella, absorbiendo parte del brillo.

En este caso, el protagonista es el helio, un gas difícil de atrapar con observaciones cortas pero muy útil para seguir atmósferas que se están evaporando. El equipo liderado por investigadores vinculados a la Universidad de Ginebra (UNIGE) y la Universidad de Montreal ha usado el instrumento NIRISS de Webb para observar el sistema durante casi 37 horas seguidas. Esa cifra importa porque el planeta completa su órbita en unas 30 horas, lo que permitió cubrir más de una vuelta entera y ver cómo cambia la señal a lo largo del recorrido.

Los resultados se publicaron en Nature Communications, y el propio planteamiento del experimento marca una diferencia: en vez de limitarse al momento del tránsito (cuando el planeta pasa por delante de la estrella), se mantuvo la observación durante prácticamente todo el “día” del planeta. Eso abre una ventana nueva para estudiar dinámicas que antes se escapaban por falta de tiempo de telescopio… y por las limitaciones de la instrumentación previa.

Por qué las observaciones anteriores se quedaban a medias

Hasta ahora, gran parte de lo que sabíamos sobre escape atmosférico en exoplanetas provenía de “tomas rápidas” durante el tránsito. Es como intentar entender el tráfico de una ciudad mirando solo un cruce durante cinco minutos: ves coches pasar, deduces que hay movimiento, pero te faltan las autopistas, los desvíos y los atascos.

Con una ventana de apenas unas horas, era complicado responder preguntas básicas: ¿hasta dónde se extiende el gas? ¿se mantiene estable o cambia? ¿la fuga se limita a una cola tipo cometa o se organiza en estructuras más complejas? La nueva observación continuada resolvió parte de esa incertidumbre al seguir el rastro del helio durante más de media órbita, no solo en el instante “fotogénico” del tránsito.

Dos colas de helio: una detrás y otra delante

Lo que más llama la atención es la geometría. La señal de helio no aparece como una simple estela única. Los datos indican dos corrientes: una cola que queda por detrás del planeta, empujada por la radiación estelar y el viento de la estrella, y otra que se curva por delante, un comportamiento menos intuitivo que sugiere un tira y afloja gravitatorio con la estrella.

Visualmente, la imagen mental recuerda a un barco rápido que deja una estela… y, al mismo tiempo, genera olas que se adelantan y rebotan por la interacción con el entorno. En un sistema planetario, el “agua” sería el flujo de partículas y campos que provienen de la estrella. La conclusión no es que el planeta tenga voluntad propia, sino que está inmerso en un ambiente extremo donde gravedad, radiación y viento estelar moldean el gas como si fueran manos invisibles.

La escala también impresiona. Según describe el equipo, la estructura se extiende enormes distancias comparadas con el tamaño del planeta, hasta el punto de ocupar una fracción notable de su órbita. Que Webb detecte esa firma durante tanto tiempo sugiere que no se trata de una fuga puntual, sino de un proceso sostenido con una arquitectura amplia y persistente.

Qué nos dice este “desangrado” sobre la evolución planetaria

Hablar de un gigante gaseoso perdiendo atmósfera puede sonar contradictorio: si es tan grande, ¿cómo va a notarse? El detalle es el ritmo y el tiempo. Incluso una pérdida modesta, mantenida durante millones de años, puede alterar el planeta. Es parecido a una gotera pequeña en casa: en un día no pasa gran cosa; en meses empiezan las manchas; en años, la estructura se resiente.

En ultra-hot Jupiters como WASP-121b, el calentamiento extremo hace que las capas superiores se inflen y se vuelvan más vulnerables. Los elementos ligeros, como hidrógeno y helio, son los primeros en escapar. Con el tiempo, eso puede cambiar la composición de la atmósfera y su densidad, y obliga a replantearse cómo se mantienen (o no) ciertos planetas en órbitas tan cercanas. No es solo un caso curioso: es una pista sobre qué tipos de mundos “sobreviven” a la cercanía estelar y cuáles se transforman.

El choque con los modelos: cuando la teoría necesita más dimensiones

La observación también sirve como prueba de estrés para los modelos numéricos. Los investigadores de UNIGE llevan años desarrollando simulaciones de escape atmosférico que explican colas simples, similares a las de un cometa. El problema aparece cuando los datos muestran una estructura doble y extensa. Si la realidad dibuja dos colas con comportamientos diferentes, los modelos 1D o 2D se quedan cortos, como un plano de metro que no muestra la altura de los túneles.

En el trabajo se señala la necesidad de una nueva generación de simulaciones 3D capaces de integrar, con mayor realismo, la interacción entre la atmósfera del planeta y el entorno estelar. Aquí entra el mensaje de fondo que suele acompañar a los grandes instrumentos: JWST no solo confirma teorías, también encuentra detalles que obligan a corregirlas. La ciencia avanza justo ahí, en la fricción entre lo que esperábamos ver y lo que los datos insisten en mostrar.

Lo que cambia para el estudio de exoplanetas a partir de ahora

El helio se está consolidando como un marcador especialmente valioso para rastrear atmósferas que se escapan. Con la sensibilidad de Webb, se puede seguir ese rastro más lejos y durante más tiempo, lo que permite estudiar no solo “si” hay fuga, sino “cómo” se organiza. Si futuras campañas encuentran estructuras similares en otros mundos, la doble cola de WASP-121b podría pasar de rareza a patrón común en ambientes extremos.

También hay una consecuencia práctica: observar una órbita completa (o casi) aporta contexto. En vez de depender de un evento breve, se puede reconstruir la dinámica del sistema y separar mejor las piezas del rompecabezas. Eso ayuda a comparar planetas, a estimar tasas de pérdida con menos incertidumbre y a entender el papel del viento estelar, que en estos escenarios actúa como un secador gigante, empujando y reordenando gas constantemente.

La historia, tal como la cuentan los autores en Nature Communications y en las comunicaciones institucionales de UNIGE, es la de una atmósfera que no se limita a escapar: se estira, se curva, se divide y ocupa el espacio como humo en una corriente de aire, guiado por fuerzas que compiten entre sí. Con Webb, ese humo deja de ser un indicio fugaz y se convierte en un mapa.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

23 de enero de 2026

Un “gato de Schrödinger” con 7.000 átomos: cómo se estira la superposición cuántica y qué le está pasando a la ciencia en EE. UU.

cuantico

La superposición cuántica se suele contar con una historia famosa: un sistema puede estar “en dos estados a la vez” hasta que lo medimos. A fuerza de repetirse, a veces suena a juego filosófico. La parte interesante es que, en el laboratorio, la superposición no es una licencia poética: deja huellas medibles, igual que unas ondas en el agua dejan un dibujo cuando se cruzan. Si has visto dos altavoces reproduciendo el mismo tono y notado zonas donde el sonido se refuerza y otras donde casi desaparece, ya tienes la intuición: interferencia. En cuántica, esa interferencia aparece cuando un objeto se comporta como onda.

La novedad de estos días es que ese comportamiento ondulatorio se ha observado en un objeto muchísimo más grande de lo habitual: un conjunto de más de 7.000 átomos. Es un salto de escala que ayuda a explorar una pregunta con sabor muy humano: ¿dónde está el límite entre lo cuántico y lo cotidiano?

Qué significa “más grande” en cuántica: no es tamaño, es fragilidad

Cuando se habla de “el mayor gato de Schrödinger”, no se quiere decir que hayan metido una bola visible a simple vista en dos sitios a la vez. Lo que crece es la masa y la complejidad del objeto que logra mantener coherencia cuántica el tiempo suficiente como para producir interferencia. Cuantos más átomos tiene, más fácil es que el entorno lo “chive”: una colisión con una molécula de aire, un poquito de radiación térmica, una vibración minúscula. Es como intentar llevar una bandeja llena de copas hasta la mesa: con una sola copa ya puedes tropezar, pero con doce el margen de error se vuelve ridículo.

Por eso, ver interferencia en un objeto con miles de átomos es tan relevante. No es solo un récord; es una demostración de control sobre un sistema que, por naturaleza, tiende a perder su carácter cuántico.

El experimento: interferometría de ondas de materia con nanopartículas

El método se apoya en la idea de que la materia, igual que la luz, puede exhibir comportamiento ondulatorio. En una interferometría de ondas de materia, se prepara una partícula de forma que su trayectoria sea indistinguible entre dos caminos posibles, y después se recombinan. Si aparece un patrón de interferencia, el sistema no “eligió” un camino desde el principio: la descripción más directa es que estuvo en una superposición de posibilidades.

Aquí lo notable es el objeto: una nanopartícula formada por más de 7.000 átomos. En el trabajo se describe que la deslocalización del estado —la extensión espacial asociada a esa superposición— llega a superar ampliamente el tamaño físico de la propia partícula. Dicho de forma sencilla: no es que la partícula se “duplique” como en un truco de magia; es que la probabilidad asociada a su posición se distribuye como una onda que puede interferir consigo misma, y eso deja un patrón verificable.

Qué se pone a prueba: el borde entre lo cuántico y lo clásico

Este tipo de resultados tocan una zona delicada de la física: por qué la mecánica cuántica, que funciona tan bien en lo microscópico, no se nos presenta a diario en objetos macroscópicos. Hay propuestas teóricas que sugieren que, a partir de cierta escala, la naturaleza podría introducir algún mecanismo que haga colapsar la superposición “por sí sola”, sin necesidad de medir. Muchas de esas ideas predicen que, al aumentar masa, distancia o tiempo, la interferencia debería degradarse.

Cuando un experimento consigue interferencia con objetos más masivos, está empujando el listón: si existiera un “apagado” natural de la cuántica a gran escala, debería aparecer antes. Al no aparecer, esas propuestas quedan más constreñidas. No significa que el debate filosófico desaparezca, pero sí que el terreno experimental se estrecha, y eso en ciencia es oro.

¿Esto se traduce en tecnología cuántica mañana? La respuesta útil es matizada

Es tentador pensar: “si ya dominan superposiciones enormes, la computación cuántica está a la vuelta de la esquina”. La realidad es más matizada. La computación cuántica depende de qubits controlables, corrección de errores y escalabilidad. Este experimento es otra cosa: es una prueba de que se puede mantener coherencia en objetos complejos y medirla con precisión.

Aun así, hay conexión tecnológica. Aprender a aislar sistemas grandes del entorno, reducir fuentes de decoherencia y diseñar interferómetros robustos es conocimiento transferible a sensores cuánticos y a metrología de alta precisión. Piensa en la diferencia entre saber mantener una vela encendida en una habitación sin corrientes y lograrlo en una azotea con viento: no es lo mismo que fabricar una central eléctrica, pero te enseña muchísimo sobre control y estabilidad.

La otra cara del episodio: ciencia en EE. UU. tras un año de Trump 2.0

La conversación no se quedó en cuántica. También repasó cómo ha cambiado la investigación en Estados Unidos durante el primer año del segundo mandato de Donald Trump. El panorama que dibujan los reportajes recientes es de tensión sostenida: programas interrumpidos o congelados, reestructuraciones en agencias, y un clima de incertidumbre que afecta a planificación científica, contrataciones y continuidad de proyectos.

Hay una capa institucional interesante: no todo depende de una sola firma. El Congreso puede frenar o redirigir partidas, y se han visto choques entre propuestas de recortes y decisiones legislativas para mantener o elevar financiación en áreas estratégicas. Esto suele traducirse en un día a día extraño para los laboratorios: se anuncian cambios, se renegocian presupuestos, se alargan trámites, se retrasa la compra de equipamiento, se congela la incorporación de personal. La ciencia, que funciona por acumulación y continuidad, sufre especialmente cuando la regla del juego cambia a mitad de partida.

También aparecen decisiones sobre qué líneas de investigación se apoyan o se limitan por razones políticas o éticas. Un ejemplo reciente es el debate sobre financiación de investigaciones que utilizan determinados tipos de tejido biológico humano. Estas medidas no se quedan en la teoría: obligan a equipos a rediseñar métodos, buscar modelos alternativos y repetir validaciones que ya estaban encarriladas.

Dos guiños “ligeros” que aterrizan la ciencia en casa

Entre los temas principales, el episodio mencionó hallazgos que recuerdan que la ciencia también es una lupa sobre lo cotidiano.

Uno viene de la arqueología: el análisis de cerámicas antiguas sugiere formas tempranas de pensamiento matemático antes de que existieran registros escritos formales. Es una idea bonita porque pone la matemática en el terreno del hacer: en patrones repetidos, simetrías y decisiones de diseño que, sin números explícitos, ya implican reglas.

El otro hallazgo es de comportamiento animal: algunos perros especialmente dotados pueden aprender palabras nuevas simplemente escuchando conversaciones humanas, sin entrenamiento directo. Es el equivalente canino a enterarse por contexto: oyes “tráeme la bufanda” varias veces, miras hacia dónde va la persona, asocias el objeto… y un día lo aciertas. No es lo común en todos los perros, pero sí una ventana a cómo el aprendizaje social puede ocurrir sin instrucciones explícitas.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Hay una palabra que se ha multiplicado de forma exagerada en artículos científicos por un motivo: le gusta a ChatGPT

Hay una palabra que se ha multiplicado de forma exagerada en artículos científicos por un motivo: le gusta a ChatGPT

Que hay artículos académicos escritos por IA es algo que ha quedado probado anteriormente, la cuestión es cómo de grave es. Para conocer la magnitud de esta práctica, un grupo de investigadores ha revisado millones de resúmenes de papers publicados en PubMed y han encontrado algo interesante: hay una palabra que le encanta a la IA y el motivo de que le guste tanto es bastante turbio.

Delve. Su traducción es 'profundizar' y su uso se multiplicó x28 entre 2022 y 2024, que casualmente coincide con el boom de ChatGPT y los modelos de lenguaje. También se citan otras palabras como 'underscore' (subrayar) o 'showcasing' (exponiendo), con un aumento de frecuencia de x13,8 y x10,7 respectivamente. Ninguna de ellas es un sustantivo o una palabra relacionada con el contenido, sino que tiene más que ver con el estilo de la escritura y es muy característica del lenguaje florido que suelen usar los LLM. 

Lenguaje florido. ¿Significa esto que si vemos una de estas palabras en un paper se haya escrito con IA? No necesariamente, pero el aumento es brutal. Los investigadores han comparado el aumento de 'delve' con otras palabras clave, como por ejemplo pandemia, la cual tuvo un pico enorme en 2020 y empezó a decaer en 2021. El aumento de la frecuencia de uso de 'delve' es muchísimo más pronunciado que todas las demás.

Sciadv Adt3813 F1 Fuente: Science

No es casual. Hay una etapa en el proceso de creación de un chatbot como ChatGPT que requiere la intervención de humanos para afinar las respuestas; es lo que se conoce como aprendizaje por refuerzo a partir de la retroalimentación humana  (por sus siglas en inglés RLHF). Resulta que la mayor parte de trabajadores que se dedican a esta labor de refinado se encuentran en países de África, como Nigeria. Adivinad dónde es bastante habitual el uso de estas palabras en inglés formal. Exacto, en Nigeria.

Estilo africano. 'Delve' es una palabra bastante común en el inglés de negocios en África, especialmente en Nigeria, y no es la única. También hay otras como 'leverage', 'explore' o 'tapestry' que son más comunes en inglés africano. Según 311institute, aunque el feedback humano es muy pequeño en comparación a las enormes cantidades de datos de entrenamiento, tiene un gran impacto ya que es lo que define el tono del modelo al respondernos. 

Etiquetado de datos. Es un paso clave para el entrenamiento de grandes modelos de lenguaje y requiere que haya humanos detrás. El problema es que la mayoría de trabajadores que se dedican a ello son de países empobrecidos como Nigeria, Kenia o India, entre otros. Por si las jornadas interminables y los sueldos irrisorios fuera poco, muchas veces los trabajadores deben revisar imágenes violentas y muy explícitas, todo sin ningún tipo de apoyo psicológico.

En Xataka | Ser moderador de porno no tiene nada de divertido. Estaba expuesto a “contenido extremo, violento, gráfico y sexualmente explícito”

Imagen | National Institute of Allergy and Infectious Diseases en Unsplash

-
La noticia Hay una palabra que se ha multiplicado de forma exagerada en artículos científicos por un motivo: le gusta a ChatGPT fue publicada originalmente en Xataka por Amparo Babiloni .



☞ El artículo completo original de Amparo Babiloni lo puedes ver aquí