16 de febrero de 2026

China llevó robots humanoides al mayor espectáculo televisivo del país: los hizo practicar kung-fu con precisión milimétrica

China llevó robots humanoides al mayor espectáculo televisivo del país: los hizo practicar kung-fu con precisión milimétrica

Cada año, cientos de millones de personas en China se sientan frente al televisor para ver la Gala de la Fiesta de la Primavera, reconocida por el Libro Guinness de los récords como el programa anual más visto del planeta. No es solo un espectáculo de música y danza, sino también un escaparate donde el país decide qué imagen quiere proyectar de sí mismo. En ese escenario de máxima visibilidad, la presencia de robots humanoides deja de ser una simple curiosidad tecnológica y pasa a funcionar como una declaración pública sobre el lugar que ocupa la innovación en el relato nacional. Lo que ocurrió allí no fue solo un número artístico, sino una pista clara de hacia dónde mira el gigante asiático cuando piensa en su futuro tecnológico.

Kung fu, coreografía y coordinación. Para presentar a sus robots ante millones de espectadores, los organizadores recurrieron a un símbolo profundamente reconocible: las artes marciales. En la transmisión de CCTV disponible en YouTube podemos ver a robots usando armas tradicionales como espadas y nunchakus, así como haciendo crobacias y saltos desde trampolines, siempre en secuencias compartidas con intérpretes humanos. La elección del kung fu aportaba algo más que espectacularidad visual, también puede interpretarse como una forma cercana de leer el avance tecnológico dentro de una tradición conocida por el público.

La magnitud del evento. La Gala de la Fiesta de la Primavera se emite desde 1983 y forma parte inseparable de la celebración del Año Nuevo en cientos de millones de hogares. Reuters la describe además como un evento comparable, por escala mediática, al Super Bowl estadounidense, capaz de concentrar cultura popular, mensaje político y ambición industrial en una sola noche. Lo que aparece en ese escenario entretiene y, al mismo tiempo, proyecta un mensaje y señala prioridades.

China Robots Kung Fu5

Una pasarela para la industria. Detrás de la puesta en escena había nombres concretos y una estrategia visible. En la gala participaron empresas conocidas en occidente como Unitree, pero otras menos conocidas como MagicLab, Galbot y Noetix. El precedente inmediato ayuda a entender el momento: la actuación de robots de Unitree en la edición anterior se volvió viral y, en cierto modo, acercó esta tecnología al gran público. Por lo que resulta razonable la idea de volver a apostar por un espectáculo similar.

China Robots Kung Fu4

Del escenario a la fábrica. La exhibición pública de estos sistemas encaja con una línea de política industrial que sitúa la robótica y la IA en el centro de la próxima etapa manufacturera china. En los últimos años hemos visto cómo el gigante asiático ha apostado fuertemente por este sector. Según Omdia, China concentró alrededor del 90% de los cerca de 13.000 robots humanoides enviados a nivel mundial el año pasado, una métrica de envíos globales que no pasa desapercibida. Morgan Stanley proyecta además que las ventas chinas podrían superar las 28.000 unidades este año, lo que apuntaría a una fase de expansión notable.

Al final, lo que se vio en ese escenario iba más allá de una coreografía bien ejecutada. Detrás de cada movimiento aparecía una narrativa de país que combina ambición tecnológica, política industrial y proyección cultural en una misma imagen televisiva. La pregunta ya no es si estos robots pueden actuar ante millones de personas, sino cuánto crecerá su presencia en los próximos años y en qué espacios de la vida cotidiana terminarán integrándose. Por ahora, su presencia masiva está destinada a este tipo de espectáculos.

Imágenes | CCTV

En Xataka | Mientras las tecnológicas prescinden de juniors para sustituirlos por IA, IBM está haciendo lo contrario: pescar gangas

-
La noticia China llevó robots humanoides al mayor espectáculo televisivo del país: los hizo practicar kung-fu con precisión milimétrica fue publicada originalmente en Xataka por Javier Marquez .



☞ El artículo completo original de Javier Marquez lo puedes ver aquí

Un “tic-tac” suspendido por sonido: los cristales de tiempo que puedes sostener en la mano

time_crystals_art

Cuando oímos la palabra “cristal” solemos pensar en algo quieto: una estructura ordenada, estable, casi inmóvil. Un cristal de tiempo le da la vuelta a esa intuición, porque su rasgo distintivo no está solo en cómo se ordena en el espacio, sino en cómo se organiza en el tiempo. En lugar de quedarse “posando” como una escultura, el sistema entra en una especie de tic-tac interno: un movimiento repetitivo que se mantiene de forma sostenida. La idea se propuso en teoría hace alrededor de una década y poco después empezaron a aparecer demostraciones experimentales en distintos sistemas, aunque las aplicaciones prácticas siguen siendo un terreno abierto.

Una forma útil de imaginarlo es la de un grupo de metrónomos. Si cada uno va por libre, el conjunto es un caos. Si surge un patrón estable y repetido, el sistema “se pone de acuerdo” en un ritmo. En los cristales de tiempo, ese ritmo no es un truco de animación: es una señal de que el sistema ha encontrado un ciclo estable bajo ciertas condiciones físicas, como si hubiera un “carril” temporal por el que se vuelve natural moverse.

El hallazgo de NYU: un cristal de tiempo visible y “de bolsillo”

Un equipo de física de la Universidad de Nueva York (NYU), liderado por David Grier junto a Mia C. Morrell y Leela Elliott, ha descrito una variante llamativa: un cristal de tiempo cuyos componentes levitan en el aire gracias al sonido y se pueden observar a simple vista. La imagen es casi doméstica: pequeñas bolitas (del orden de milímetros) que recuerdan a las de embalaje quedan suspendidas en el aire en un dispositivo de aproximadamente un pie de altura, lo bastante compacto como para sostenerlo con la mano.

El trabajo aparece asociado a la revista Physical Review Letters y se presenta como un sistema especialmente “simple” de montar y entender frente a otras realizaciones más abstractas o dependientes de entornos criogénicos o instrumentación muy especializada. Esa sencillez es parte del atractivo: no estamos ante un fenómeno que solo exista en un esquema mental, sino ante uno que literalmente se puede mirar mientras ocurre.

Levitación acústica: sostener materia con ondas sonoras

La base del experimento es la levitación acústica. El sonido no es solo algo que escuchamos: es una onda mecánica que transporta energía y puede ejercer fuerzas. Si alguna vez has visto cómo el oleaje empuja una hoja en un estanque, ya tienes la analogía perfecta: las ondas sonoras también pueden empujar, solo que en el aire y a frecuencias que, en este caso, son ultrasónicas.

En el montaje descrito por los investigadores, un campo de sonido forma una onda estacionaria, que es como un patrón de “crestas y valles” fijos en el espacio. En ciertos puntos del patrón se crean zonas de presión que actúan como pequeños “cuencos invisibles”. Una bolita ligera puede quedar atrapada ahí y mantenerse suspendida contra la gravedad, al principio inmóvil, como si estuviera apoyada sobre un colchón que no vemos.

El propio manuscrito técnico (publicado en arXiv) describe el sistema operando con una frecuencia acústica en torno a 40 kHz, típica de diseños populares de levitadores acústicos basados en arreglos de transductores. No es un detalle menor: esa “infraestructura” relativamente accesible ayuda a explicar por qué el resultado ha llamado la atención fuera del círculo habitual de física de materia condensada.

Cuando Newton no manda del todo: interacciones no recíprocas y la Tercera ley de Newton

Aquí llega lo verdaderamente novedoso. Si solo levitas una bolita, el resultado es vistoso, pero no hay “cristal de tiempo”. El paso clave ocurre cuando hay dos partículas levitadas que interactúan entre sí. En este experimento, esa interacción se da porque cada partícula dispersa parte del sonido y esa dispersión afecta a la otra, como si intercambiaran “olas” acústicas.

Lo interesante es que esa influencia puede ser desigual. Una bolita más grande dispersa más sonido que una pequeña, por lo que empuja “más” a la otra de lo que recibe de vuelta. Morrell lo compara con dos ferris de tamaños distintos generando olas al acercarse a un muelle: ambos se mueven por las olas del otro, pero no con la misma intensidad. Esa asimetría se describe como interacciones no recíprocas.

A primera vista, esto parece chocar con la Tercera ley de Newton, la famosa regla de acción y reacción. La clave está en que el sistema no es “cerrado” en el sentido clásico: el sonido y las ondas dispersadas pueden llevarse impulso fuera del par de partículas, lo que rompe la expectativa de fuerzas perfectamente compensadas entre ellas. El propio texto técnico lo menciona explícitamente: las interacciones mediadas por ondas no están obligadas a cumplir la simetría estricta de acción-reacción porque el medio (y las ondas) participan en el intercambio de momento.

El “tic-tac” espontáneo: un cristal de tiempo clásico sin empujones periódicos

En muchos experimentos, para sostener una oscilación hay que estar empujando de manera rítmica, como quien da impulso a un columpio a intervalos regulares. En este caso, el punto fino es que no hace falta un “empujón periódico” externo para marcar el ritmo. El sistema puede tomar energía del campo sonoro estacionario y convertirla en movimiento colectivo sostenido, compensando pérdidas como el rozamiento viscoso del aire.

En el preprint, los autores describen que el sistema mínimo de dos partículas puede mostrar varios regímenes dinámicos; entre ellos, aparecen estados estacionarios activos con oscilaciones mantenidas, y en ciertas condiciones esas oscilaciones rompen simetrías espacio-temporales de forma espontánea, cumpliendo el criterio de un cristal de tiempo clásico.

Un detalle que ayuda a aterrizar la idea es pensar en una cinta transportadora invisible. La onda estacionaria es como esa cinta: está ahí, constante, sin “pulsos” temporales. Si colocas dos objetos que interactúan de manera asimétrica, esa interacción puede “engancharse” a la energía disponible y transformarla en un patrón estable de movimiento. No es magia ni energía gratis: es una forma elegante de conversión de energía bajo reglas no habituales por la no reciprocidad.

Por qué podría importar: de almacenamiento de datos a ritmos circadianos

Aunque todavía no hay aplicaciones comerciales listas para salir al mercado, la literatura divulgativa y los propios comunicados señalan que los cristales de tiempo se contemplan como prometedores en áreas como computación cuántica y almacenamiento de datos, en parte por su relación con ritmos estables y formas de orden temporal que podrían servir como “referencias” o mecanismos de robustez. Este trabajo amplía el catálogo de plataformas posibles, con una ventaja práctica evidente: se ve a simple vista y funciona con una arquitectura acústica relativamente compacta.

Hay otro guiño interesante que conecta con biología. El comunicado asociado al estudio menciona que la idea de interacción no recíproca no es exclusiva de bolitas suspendidas: algunos ritmos circadianos y redes bioquímicas también muestran interacciones asimétricas, como ciertos procesos metabólicos. El paralelismo no significa que nuestro cuerpo esté hecho de cristales de tiempo, pero sí sugiere que entender bien cómo surgen oscilaciones estables cuando la “acción y reacción” no están equilibradas podría aportar intuiciones a sistemas vivos que también funcionan con cadenas de causa-efecto que no son perfectamente simétricas.

Lo que deja abierto este experimento

Este resultado destaca por una mezcla poco común: un fenómeno conceptual que durante años sonó esotérico, un montaje experimental relativamente manejable, y una pieza de física fundamental alrededor de la no reciprocidad. El propio manuscrito sugiere una dirección práctica sugerente: si este tipo de dinámica emergente se puede diseñar y controlar en arreglos más grandes, podría inspirar osciladores compactos y bases de tiempo físicas construidas no desde un reloj tradicional, sino desde un “acuerdo” colectivo entre partículas mediadas por ondas.

El estudio reconoce apoyo de la National Science Foundation bajo los premios DMR-2104837 y DMR-2428983, un recordatorio de que, aunque el experimento parezca casi artesanal por sus materiales, detrás hay una agenda científica de largo recorrido para entender qué nuevos comportamientos colectivos aparecen cuando dejamos que las ondas —en este caso, el sonido— sean el pegamento dinámico entre objetos.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Un nanoláser microscópico para llevar la luz dentro del microchip y recortar el gasto energético

nanolaser_final

Si piensas en un láser, quizá te venga a la cabeza un puntero o un equipo industrial. Lo interesante de lo que acaba de presentar un equipo de la Technical University of Denmark (DTU) es justo lo contrario: un nanoláser tan compacto que está pensado para convivir con miles de “hermanos” dentro de un solo microchip. La idea se cuenta en un trabajo revisado por pares publicado en Science Advances, con Jesper Mørk como uno de los autores, junto a investigadores como Meng Xiong y Yi Yu (DTU Electro).

La promesa es directa, aunque todavía depende de varios pasos: si la comunicación interna de los chips dejara de basarse principalmente en señales eléctricas y pasara a usar fotones (partículas de luz), los dispositivos podrían mover datos más deprisa y con menos pérdidas energéticas. En la nota de DTU difundida a través de EurekAlert! se llega a estimar que, en un escenario maduro, el consumo de energía de los ordenadores podría reducirse a la mitad gracias a este tipo de componentes. Conviene leerlo como una proyección razonada, no como un resultado ya garantizado en productos comerciales.

Por qué la electricidad se calienta cuando corre por un chip

Para entender por qué un láser tan pequeño importa, ayuda una comparación cotidiana. La electricidad en un chip se parece a una ciudad con calles muy transitadas: cuantos más coches intentan pasar por las mismas vías, más atascos y más calor. En términos técnicos, las interconexiones eléctricas sufren pérdidas resistivas, interferencias y limitaciones de velocidad a medida que se reduce el tamaño y se incrementa la densidad de señales.

En cambio, la luz se comporta más como un sistema de mensajería por tubos neumáticos: si el “tubo” está bien diseñado, el mensaje llega rápido y con poca fricción. Por eso el internet global ya usa comunicación óptica en cables de fibra para largas distancias. El cuello de botella aparece cuando el dato llega al dispositivo: dentro del ordenador y, sobre todo, dentro del chip, seguimos dependiendo de pistas metálicas y transistores que conmutan electricidad. Meter la luz “hasta la cocina” del microchip es una aspiración antigua en nanofotónica y fotónica integrada: no basta con tener luz fuera, hace falta generarla y manejarla dentro con un coste energético bajísimo.

La clave: una cavidad nanométrica que atrapa luz como una lupa extrema

El avance que describe DTU se apoya en una estructura conocida como nanocavidad: un “espacio trampa” que concentra la luz en un volumen diminuto. La imagen mental útil es la de una lupa que enfoca la luz del sol en un punto hasta calentarlo; aquí, esa lupa no es un vidrio, sino una arquitectura nanométrica dentro de una membrana semiconductora. El trabajo habla de confinamiento dieléctrico extremo, una forma de explicar que el campo electromagnético queda comprimido en un espacio tan pequeño que, hasta hace poco, muchos diseños se consideraban poco realistas de fabricar o de mantener estables.

Según DTU, el dispositivo está construido en una membrana de semiconductor y consigue que electrones y luz se acumulen en una región microscópica. Ese detalle es crucial: un láser necesita que los portadores (electrones y huecos, en lenguaje de semiconductores) “alimenten” la emisión de luz, y que esa luz se refuerce a sí misma dentro de una cavidad. Cuando ambos ingredientes se concentran con tanta eficacia, el umbral energético para iniciar la emisión láser puede bajar.

Otro punto práctico: el equipo informa de funcionamiento a temperatura ambiente y con consumo inusualmente bajo bajo iluminación externa. Es decir, el prototipo se excita con un haz de luz (bombeo óptico). Esto no es raro en investigación puntera: permite demostrar el principio físico y la arquitectura antes de dar el salto a la alimentación eléctrica, que es donde empiezan los compromisos con fabricación masiva y compatibilidad con procesos industriales.

Romper el “límite” de tamaño: por qué esto no es solo miniaturización

En tecnología solemos celebrar lo pequeño por lo pequeño, como si todo se redujera a encoger. Aquí el matiz es distinto: los autores señalan que este nanoláser rompe la idea tradicional de cuán pequeño puede ser un láser manteniendo desempeño. En un chip, el tamaño no es un capricho estético; es el precio de entrada para poder colocar miles de fuentes de luz sin sacrificar área destinada a lógica, memoria o conectores.

El trabajo se desarrolló en la sala blanca DTU Nanolab, un dato relevante porque estos dispositivos viven o mueren por su fabricabilidad. Diseños brillantes en simulación pueden fallar al enfrentarse a defectos, rugosidades, tensiones mecánicas o variaciones minúsculas que, a escala nanométrica, equivalen a mover una pared entera en una casa. En este caso, DTU subraya que la estructura de atrapamiento de luz fue diseñada originalmente por el grupo de Ole Sigmund (DTU Construct), lo que sugiere un recorrido de diseño y optimización antes de llegar al láser como tal.

El gran reto pendiente: alimentarlo con electricidad sin perder la ventaja

Si hay un “siguiente paso” que decide si la idea llega a los productos, es la inyección eléctrica. Un nanoláser bombeado ópticamente es como un coche que funciona perfecto en el banco de pruebas, pero todavía necesita un depósito y una bomba de combustible integrados. Llevar corriente eléctrica a una región tan pequeña sin introducir pérdidas, calentamiento local o degradación del material es difícil. También hay que controlar cómo se acopla esa luz a guías ópticas dentro del chip para que no se quede encerrada en la cavidad, sino que salga en la dirección y con la forma adecuada.

La nota divulgativa menciona que resolver los últimos desafíos técnicos podría llevar entre cinco y diez años. Ese horizonte encaja con el ritmo típico de la fotónica integrada cuando se pasa del prototipo a sistemas: primero se valida la física, luego se integra la alimentación eléctrica, después llega la etapa de fiabilidad (horas y horas de funcionamiento) y finalmente se busca compatibilidad con líneas de fabricación y empaquetado.

Qué podría cambiar en ordenadores, móviles y centros de datos

Si miles de nanoláseres pudieran integrarse en un único microchip, el efecto no sería solo “más velocidad”. El beneficio principal sería una mejora sistémica de la eficiencia energética, ya que parte del gasto actual se va en mover datos dentro del chip y entre módulos cercanos. Cuando esa energía se disipa, se transforma en calor, y el calor se convierte en un segundo problema: hay que evacuarlo con soluciones térmicas, ventilación o refrigeración líquida, que también consumen energía.

En centros de datos, donde cada vatio cuenta, reducir la energía por bit transmitido puede traducirse en menos consumo eléctrico y en menor necesidad de refrigeración. En dispositivos de bolsillo, el impacto se notaría como autonomía o como margen para ofrecer más rendimiento sin que el terminal se convierta en una pequeña estufa. La estimación de “mitad de consumo” que menciona Jesper Mørk es ambiciosa y depende de cuánta parte del presupuesto energético total se asigne hoy a comunicación e interconexiones; aun así, apunta al sitio correcto: el coste de mover datos ya compite con el de procesarlos.

Sensores y salud: cuando concentrar luz sirve para ver lo invisible

No todo es informática. Una cavidad que concentra luz de forma extrema también es una herramienta para sensores biomédicos e imagen. La analogía aquí es la del olfato: si consigues que las moléculas “pasen” por un punto donde la luz es intensísima, cualquier cambio —una proteína, un biomarcador, una variación en el índice de refracción— deja una huella más fácil de detectar. DTU menciona potencial para biosensores ultrasensibles y sistemas de imagen de alta resolución. En escenarios clínicos, esto podría abrir vías para análisis más rápidos, dispositivos más compactos o equipos que funcionen con menos potencia, algo valioso en entornos con recursos limitados o en instrumentación portátil.

Un avance sólido, con condiciones claras para convertirse en producto

El trabajo, titulado “A nanolaser with extreme dielectric confinement”, aparece en Science Advances con DOI 10.1126/sciadv.adx3865 y fecha de publicación científica del 17 de diciembre de 2025. El mensaje de fondo es que la nanofotónica sigue encontrando maneras de comprimir y controlar la luz en espacios que hace una década parecían inalcanzables, con demostraciones cada vez más cercanas a las necesidades de la industria.

La lectura prudente es sencilla: el nanoláser de DTU aporta una pieza prometedora para la comunicación óptica dentro del chip, muestra funcionamiento eficiente a temperatura ambiente y empuja el límite de miniaturización con una cavidad de confinamiento extremo. Falta convertir ese principio en un componente eléctricamente alimentado, integrable y fiable en masa. Si esa transición sale bien, la luz podría empezar a hacer dentro del silicio lo que ya hace en la fibra: transportar información con menos fricción, menos calor y más margen para escalar el rendimiento.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

MIT propone “computar con calor”: un componente pasivo que convierte el calor residual en señal útil

heat_computing

Cada vez que un chip trabaja, una parte de la energía se convierte en calor residual. Es el típico “desperdicio” que obliga a diseñar disipadores, ventilación y estrategias para que el dispositivo no se estrangule por temperatura. Un equipo del MIT plantea una idea curiosa: si el calor es inevitable, quizá pueda aprovecharse como si fuera una pista, un patrón que “cuenta” algo sobre lo que está pasando dentro del sistema.

La propuesta llega en forma de prueba de concepto publicada el 29 de enero en Physical Review Applied y divulgada por Live Science: unas microestructuras de silicio capaces de dirigir cómo se propaga el calor sobre la superficie de un chip, con la intención de usar esas distribuciones térmicas como parte de un proceso de computación analógica. La clave está en que no se trata de añadir transistores ni circuitería activa; son componentes pasivos que “hacen su trabajo” solo por su geometría, igual que una rampa bien diseñada guía una pelota sin motor ni batería.

Un componente pasivo: geometría que guía el calor

La idea se entiende bien con una metáfora doméstica: imagina una encimera caliente en la que derramas una gota de miel. La miel se extiende siguiendo su física; si esa encimera tuviera canales finísimos, la miel acabaría repartida de manera distinta, concentrándose en unas zonas y evitando otras. Aquí la “miel” es el calor y los “canales” son estructuras microscópicas talladas en silicio que controlan la conducción térmica.

Según explica el trabajo, estas estructuras redistribuyen el flujo de calor desde regiones más calientes hacia puntos de salida específicos. La cantidad de calor que llega a cada salida depende de la arquitectura interna: el componente actúa como un “mapa de carreteras” para la energía térmica. No necesita alimentación propia ni conmutación digital; solo obedece las leyes de la conducción.

El autor principal, Caio Silva (estudiante de física en el MIT), lo resumía en una declaración del instituto: en electrónica solemos tratar el calor como un subproducto que conviene expulsar, mientras que aquí se explora lo contrario, usarlo “como una forma de información” y mostrar que computar con calor es posible.

Temperatura como número continuo: qué significa “computación analógica” aquí

Cuando se habla de computación analógica, el truco es que, en lugar de trabajar con bits (1 y 0), se usan magnitudes continuas del mundo físico: voltajes, corrientes, luz, presión… o temperatura. Es como comparar un interruptor con un regulador de intensidad: el interruptor solo tiene dos estados, el regulador tiene un rango continuo.

En esta propuesta, la “variable” que transporta la información es la temperatura y el flujo de calor. El patrón térmico sobre el chip representaría datos o resultados de una operación. No es que el portátil “piense con calor” de forma mística; se trata de diseñar una red física que, al recibir un perfil térmico de entrada, produce otro perfil de salida que corresponde a un cálculo concreto. La física hace el cálculo “de serie”, como un molino que tritura grano sin necesidad de instrucciones digitales para cada giro.

De la teoría al chip: cómo se lee el resultado y se integra con electrónica real

Un punto práctico: si el cálculo queda “dibujado” en forma de temperaturas, alguien tiene que leerlo. El enfoque que describen los investigadores consiste en medir el calor en los puntos de salida y convertirlo a una señal eléctrica estándar con sensores convencionales integrables en chip. Esa señal ya puede pasar al resto del sistema, que sí puede ser digital, analógico o híbrido.

Este detalle importa porque baja la barrera de integración: no hace falta reinventar todo el ecosistema de diseño de chips. El componente térmico haría una parte del trabajo y entregaría un resultado que el hardware existente sabe manejar. Es parecido a usar un termómetro doméstico: el fenómeno físico es temperatura, pero el aparato te lo traduce a números legibles.

Multiplicación matriz-vector: por qué eligieron esta operación

En sus simulaciones, el equipo mostró que estas estructuras podían realizar una multiplicación matriz-vector con una precisión superior al 99%. Este tipo de operación aparece por todas partes en informática moderna, desde procesamiento de señales hasta muchas rutinas de IA y aprendizaje automático. Si alguna vez has ajustado el brillo de una foto o has aplicado un filtro, hay mucha álgebra lineal detrás; es el “motor invisible” que transforma entradas en salidas.

Elegir esta operación como demostración tiene sentido: es una tarea concreta, medible y central en cargas intensivas. De hecho, gran parte del coste energético de ciertos modelos de aprendizaje automático proviene de repetir multiplicaciones y acumulaciones a gran escala. Si una porción de ese trabajo pudiera trasladarse a un proceso pasivo, el ahorro potencial sería atractivo en escenarios muy específicos.

Lo que podría aportar en eficiencia y en salud térmica del hardware

El ángulo energético es evidente: si el componente usa calor que ya se estaba generando, evita gastar energía extra para producir una señal nueva. En vez de colocar múltiples sensores térmicos dispersos —que ocupan área, requieren lectura y gestión—, una estructura pasiva podría “codificar” información térmica en menos puntos de salida. En otras palabras, convierte el propio comportamiento térmico del chip en un canal informativo.

Hay otro uso menos glamuroso y muy realista: gestión térmica y detección de focos calientes. En electrónica, un “hotspot” puede ser síntoma de una carga excesiva, un defecto o un mal contacto. Si el componente puede redirigir el calor hacia zonas de medida pensadas para ello, se podría monitorizar el estado térmico sin añadir consumo relevante. El coautor Giuseppe Romano, del Institute for Soldier Nanotechnologies del MIT, apuntaba en una declaración que estos elementos se podrían “enchufar” sin necesidad de componentes digitales, con la idea de detectar fuentes de calor directamente.

Aquí la metáfora útil es la de las fugas de agua: si una instalación tiene zonas propensas a filtraciones, diseñas canalizaciones y puntos de inspección para detectar el problema pronto. En microelectrónica, el agua es calor, y llegar antes puede evitar degradación o daños.

El reto de escalar: del experimento a los modelos grandes

Conviene poner límites sobre la mesa. Una cosa es demostrar una operación relativamente simple en simulación o a pequeña escala; otra es sostenerlo en la complejidad de sistemas reales. Los propios autores señalan que llevar este enfoque a tareas como las de los modelos de lenguaje requeriría millones de estructuras enlazadas. Esa cifra no es un detalle menor: fabricar, validar, interconectar y calibrar millones de “canales térmicos” introduce retos de diseño y producción.

También hay factores físicos inevitables. El calor se difunde, hay ruido térmico, el entorno cambia, y un chip no vive en condiciones estáticas: la carga varía, el ventilador entra y sale, el dispositivo se calienta por zonas. Convertir un patrón térmico en cómputo fiable exige controlar muchos matices. En digital, se tolera bien el ruido porque 0 y 1 tienen márgenes; en analógico, los pequeños desvíos cuentan. Que el estudio reporte alta precisión en simulaciones es prometedor, pero el salto a entornos reales siempre añade fricción.

Una línea de investigación que viene de antes

El trabajo no aparece de la nada. El equipo se apoya en investigación previa del MIT (mencionan resultados de 2022) sobre materiales nanoestructurados capaces de controlar el flujo de calor. Es una continuidad lógica: primero aprendes a “domar” el calor como fenómeno físico; luego intentas que esa capacidad sirva para tareas útiles, desde monitorización hasta operaciones de cómputo.

La lectura razonable es que estamos ante una exploración de arquitectura: una pieza nueva para la caja de herramientas de diseño, enfocada a nichos donde el calor no solo sea un problema, sino una señal aprovechable.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Las empresas tech no quieren recién graduados porque creen que la IA los va a aniquilar. IBM está contratándolos sin parar

Las empresas tech no quieren recién graduados porque creen que la IA los va a aniquilar. IBM está contratándolos sin parar

El mundo empresarial está tan aterrorizado con la IA que las contrataciones de recién graduados están en crisis. Sin embargo, hay una empresa que está justo yendo en la dirección contraria: IBM no solo no ha congelado dichas contrataciones, sino que las está triplicando. Y su argumento es potente.

IBM quiere recién graduados. "Estamos triplicando nuestra contratación de puestos junior", explicaba Nickle LaMoreaux, la máxima responsable de recursos humanos de IBM, en una entrevista en Charter. De hecho, destacaba, esos puestos que están cubriendo "son para desarrolladores software y para todos esos trabajos que nos dicen que la IA puede hacer". Es una declaración sorprendente, sobre todo teniendo en cuenta que la tendencia del mercado es justo la contraria.

Captura De Pantalla 2026 02 16 A Las 12 57 12 El paro entre los recién graduados —y entre losjóvenes— está en niveles récord en la última década en EEUU. Fuente: Federal Reserve Bank of New York.

El problema del paro en la Gen Z. Los jóvenes de la generación Z (Nacidos entre 1997-2012 aproximadamente) se enfrentan a una de las épocas más complejas a la hora de buscar un primer trabajo. En Estados Unidos la tasa de desempleo de los recién graduados está en el 5,6%, la más alta de la década si exceptuamos la época de la pandemia. Directivos de empresas tecnológicas llevan tiempo avisando de que la IA va a impactar mucho en el trabajo, y en especial en el ámbito de la programación. 

Perfiles junior con un nuevo foco. Mientras la competencia parece mostrar un interés creciente por reemplazar puestos de nivel de entrada con la automatización —un 37% planea hacerlo según Korn Ferry—, IBM está cambiando la mentalidad. Los ingenieros de software novatos no se pasarán el día picando código rutinario que una IA puede generar. En lugar de eso, se enfocarán en la interacción con clientes y en supervisar los resultados de los modelos. La IA ya no sustituye al junior, sino que le obliga a ser más estratégico desde el primer día.

IBM no es la única en pensar así. Aunque parece que la tendencia a la automatización es clara, IBM no está sola en esa huida hacia delante. Dropbox está haciendo lo mismo y su responsable de recursos humanos, Melanie Rosenwasser, cree que la Gen Z tiene una ventaja fundamental: está mejor preparada para trabajar con la IA que los veteranos. Según ella, "es como si [los jóvenes de la Gen Z] estuvieran con sus bicis en el Tour de France mientras el resto de nosotros vamos con ruedines", indicó en Bloomberg

Pero. El movimiento de IBM no está exento de cierto cinismo. La compañía hizo este anuncio una semana después de realizar un despido masivo para centrarse en áreas de crecimiento. Es como si hubieran creado una puerta giratoria en la que han sacado veteranía costosa para dejar entrar a juventud más barata. 

La IA como amplificadora. Sea como fuere, el CEO de IBM, Arvind Krishna, defiende esa estrategia —lógico— indicando que la IA no es sustituta de la capacidad humana, sino amplificadora. El discurso, nos lo creamos o no, representan una apuesta singular sobre todo ahora que las empresas parecen plantear que harán lo mismo con muchos menos empleados. Para IBM  la apuesta es a la lealtad y al conocimiento cultivado desde la base en lugar de supeditarlo todo a los algoritmos.

"Developers, developers, developers!". En evento .NET que Microsoft organizó en 1999 se produjo el célebre momento viral en el que un sobreexcitado y sudoroso Ballmer cantó aquello de "Developers, developers, developers!" sin parar. La empresa trataba de volver atraer talento con ese discurso, pero en realidad esa labor había sido intensa años antes. 

Contratar recién graduados le funcionó muy bien a Microsoft. Steven Sinofsky, que lideró el desarrollo de Windows 7, contaba en Twitter cómo Microsoft llegó a ser lo que era gracias a su estrategia de contratar a recién graduados —incluso si no habían terminado la carrera—. El desarrollo de Office, por ejemplo, se nutrió especialmente de estos jóvenes, pero aquella estrategia se detuvo. Como explica Sinofsky "Los "tiempos oscuros" se acentuaron por un parón obligado en la contratación de recién graduados, y las consecuencias se notaron cinco años más tarde". 

En Xataka | "Son mucho más osados": la Gen Z está derribando todos los consensos laborales en su entrada masiva al trabajo 

-
La noticia Las empresas tech no quieren recién graduados porque creen que la IA los va a aniquilar. IBM está contratándolos sin parar fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí